ja
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (787)
- Arbeitspapier (58)
- Teil eines Buches (Kapitel) (6)
- Wissenschaftlicher Artikel (3)
- Buch (1)
- Konferenzveröffentlichung (1)
Gehört zur Bibliographie
- ja (856)
Schlagworte
- Hochschullehre (56)
- Didaktik (55)
- Geschäftsmodell (36)
- Digitalisierung (32)
- Vertrieb (31)
- Personalwesen (27)
- Führung (19)
- Innovationsmanagement (17)
- Social Media (16)
- Online-Marketing (13)
Institut
- Informationstechnologien & Wirtschaftsinformatik (169)
- Innovationsmanagement (150)
- Automatisierungstechnik-Wirtschaft (125)
- Rechnungswesen & Controlling (125)
- Sales Management (64)
- International Marketing (37)
- Unternehmensmanagement (37)
- Digital Marketing Management (29)
- Financial Accounting (24)
- Software Engineering Leadership (21)
Berater müssen sich aufgrund des digitalen Wandels und der veränderten Anforderungen ihrer Kunden umstellen. Vor allem kleinere Beratungsunternehmen haben oft nicht die notwendigen Ressourcen, um sich mit innovativen Themenstellungen im Zuge der Digitalisierung auseinanderzusetzen. Auch INNOLAB (eine Initiative der Wirtschaftskammer Steiermark) ist in dieser Branche tätig und befasst sich mit Innovationsberatung für Klein- und Mittelunternehmen. Als Teil des Studiengangs Innovationsmanagement an der Fachhochschule der Wirtschaft am CAMPUS 02 in Graz, beschäftigt sich das INNOLAB laufend mit neuen wissenschaftlichen Forschungen und Innovationen, doch nicht alle Digitalisierungsmöglichkeiten, die aktuell am Markt entstehen, können erfasst werden. Ziel dieser Masterarbeit ist es, Digitalisierungspotenziale für Unternehmen aus der Innovationsberatungsbranche aufzuzeigen und in weiterer Folge konkrete Handlungsmöglichkeiten für INNOLAB für das Jahr 2025 abzuleiten. Im theoretischen Teil dieser Arbeit wird die Analyse des Dienstleistungssektors im Allgemeinen behandelt, zudem die Beratungsbranche und deren Prozesse mit Fokus auf die Innovationsberatung sowie aktuelle Trends in der Digitalisierung. Im empirischen Teil soll zunächst die Ist-Situation des INNOLAB erfasst werden. Anschließend werden sechs Experten aus der Innovations- und Digitalisierungsberatung befragt, welche digitalen Aktivitäten und Tools diese aktuell einsetzen und sich für die Zukunft vorstellen können. Auf Basis der gesammelten Informationen werden in einem Workshop mit INNOLAB fünf konkrete Digitalisierungsmaßnahmen für das Jahr 2025 ermittelt. Als Ergebnis werden alle identifizierten Digitalisierungspotenziale in Form eines modularen Baukastensystems entlang des gesamten Innovationsberatungsprozesses dargestellt und in digitale Aktivitäten, Tools und Formate untergliedert. Als weiteres Ergebnis werden die generierten Digitalisierungsmöglichkeiten für INNOLAB für das Jahr 2025 detailliert beschrieben.
Social-Media-Kommunikation in Industrieunternehmen und Analyse von Trends am Beispiel der Knapp AG
(2020)
Social-Media-Plattformen umgeben uns bereits seit Jahren. Nur wenige sind heutzutage, ohne ein Profil auf dem einen oder anderen Netzwerk zu finden, auch Unternehmen sind zunehmend auf den Plattformen vertreten. Die Bildung von Strategien für das Employer Branding und das Messen der Tätigkeiten ist jedoch in den meisten Unternehmen noch in den Kinderschuhen. Auch ist das Bewusstsein der Relevanz und der damit verbundene Zeitaufwand für ein professionelles Auftreten bei den meisten Entscheidungsträgern noch nicht vorhanden. B2B-Unternehmen stehen dabei vor der zusätzlichen Herausforderung den Bekanntheitsgrad der Marke zu steigern, um mit den Zielgruppen Generation Y und Z erst in Kontakt zu treten. Im theoretischen Teil der Arbeit konnten Merkmale für eine gelungene Kommunikation identifiziert und auf die Anwendbarkeit auf den einzelnen Plattformen überprüft werden. Im empirischen Teil der Arbeit wurden Experten zu den Themen Generation Y und Z, Kommunikation, Social Media, Employer Branding und Kontaktkanäle befragt. Aufbauend auf den bisher generierten Informationen wurde eine Online-Befragung der Zielgruppen Generation Y und Z durchgeführt. Diese diente dazu die gewonnenen Erkenntnisse und Annahmen durch die Gruppen zu verifizieren und Unstimmigkeiten durch direktes Feedback auszuräumen. Die Ergebnisse wurden konsolidiert, ein Konzept für die Unternehmensgruppe KNAPP wurde erstellt und nächste Schritte für die Umsetzung des Konzepts wurden in einer Handlungsempfehlung zusammengefasst.
Der gravierende IT-Fachkräftemangel sowie die Treiber für die Veränderungen der Arbeitswelt (Demografischer Wandel, Globalisierung, Digitalisierung, Wissenskultur mit lebenslangem Lernen, Individualisierung, Wertewandel der Generationen) zwingen Unternehmen dazu sich mit geeigneten Maßnahmen zur Förderung der Mitarbeiterbindung auseinanderzusetzen. Um sich als attraktiver Arbeitgeber für IT-Fachkräfte zu positionieren, ist es entscheidend genau jene Angebote zu ermitteln und bereitzustellen, die für die Zielgruppe von Bedeutung sind. Im Zuge des Theorieteils wurde anhand einer umfassenden Literaturrecherche eine Toolbox mit Maßnahmen zur Förderung der Mitarbeiterbindung erarbeitet, welche um die Erkenntnisse des empirischen Teils ergänzt und verfeinert wurde. In einem Mixed-Methods-Ansatz wurden zunächst die Erwartungen und Wünsche der IT-Fachkräfte an den Arbeitgeber in einem qualitativen Kreativitätsworkshop identifiziert und attraktive Angebote des Arbeitsgebers zur Steigerung der Arbeitgeberattraktivität und Mitarbeiterbindung erarbeitet. Basierend auf den Ergebnissen des Kreativitätsworkshops und der Literaturrecherche erfolgte im Anschluss eine quantitative Befragung von IT-Fachkräften mittels Online-Fragebogen, welche die geeignetsten Angebote des Arbeitgebers für die Zielgruppe ermittelte. Anhand der gewonnenen Erkenntnisse des methodischen Vorgehens wurde eine Priorisierung der Mitarbeiterbindungsmaßnahmen vorgenommen und Handlungsempfehlungen für Arbeitgeber von IT-Fachkräften abgeleitet. Für die Merkmale der Arbeitsbedingungen wurde ein hohes Maß an gewährter Flexibilität (hinsichtlich Arbeitszeit, Arbeitsort, privater Verpflichtungen) als Dreh- und Angelpunkt der retentionsförderlichen Maßnahmen für IT-Fachkräfte identifiziert. Ebenso eine entscheidende Rolle spielt die Bezahlung eines fairen und konkurrenzfähigen Gehalts (Gehaltsentwicklungsplan, Zeitausgleich statt All-in Verträgen), die Eröffnung von Perspektiven und Entwicklungsmöglichkeiten im Unternehmen (Karriereplan, Etablierung von Fachkarrieren, kontinuierliche Weiterbildungen, Wissensaustausch unter Kollegen), technische Ausstattung auf dem aktuellem Stand der Technik (mehrere Bildschirmmonitore, leistungsfähiger Rechner, Hardware und Software up-to-date, favorisierte Programme, neue Technologien), ein Angebot an retentionsförderlichen Veranstaltungen (regelmäßige Mitarbeiterinformationen, Teambuilding-Events) und klare Regelungen von Prozessen und Verantwortlichkeiten. Das Handlungsfeld der Mitarbeiterführung (Sozialkompetenz der Führungskraft, Erkennen und Fördern von Entwicklungspotentialen, Wertschätzung und Anerkennung, Feedback, Beachtung der Mitarbeiterauslastung, Kommunikation und Information, Berücksichtigung von Interessen und Stärken) sowie die Gestaltung der Arbeitsinhalte (Flexibilität bei der Abarbeitung von Arbeitsaufgaben, Ausrichtung an Stärken und Interessen des Mitarbeiters, Möglichkeit sich einzubringen) runden das Mitarbeiterbindungskonzept ab. Die Relevanz der Mitarbeiterbindung wird sich in den nächsten Jahren intensivieren, da davon auszugehen ist, dass sich der gravierende Fachkräftemangel von IT-Personal weiter zuspitzen wird. Arbeitgeber von IT-Fachkräften bewegen sich in einem äußerst kompetitiven Umfeld und müssen daher ein retentionsförderliches Maßnahmenpaket schnüren, welches es ihnen erlaubt die IT-Personalressourcen langfristig an das Unternehmen zu binden. Die Implementierung des erarbeiteten Maßnahmenbündels trägt dazu bei die Erfolgschancen von Arbeitgebern für den Verbleib von IT-Personal im Unternehmen zu erhöhen. Die frühzeitige Auseinandersetzung mit mitarbeiterorientierten Retentionskonzepten leistet somit einen wichtigen Beitrag zum Erhalt der Wettbewerbsfähigkeit und Abmilderung des IT-Fachkräftemangels.
Die Herausforderungen der modernen Unternehmensführung haben sich verändert. Die Nachfrage an personalisierten Angeboten nimmt zu und die Lebenszyklen werden immer kürzer. Dieser Umstand führt zu einem wachsenden Innovations- und Wettbewerbsdruck bei Unternehmen und fordert daher eine rasche Reaktionsfähigkeit sowie ein ganzheitliches Denken. Folglich entwickeln sich immer mehr Unternehmen zu projektbasierten oder projektgestützten Organisationen, die sämtliche oder ausgewählte Aufgaben in Form von Projekten abwickeln. In weiterer Folge hat sich dadurch das Projektcontrolling, welches die Erreichung der wirtschaftlichen Ziele sicherstellt, zu einem wesentlichen Bestandteil eines erfolgreichen Unternehmens etabliert. Der Kooperationspartner dieser Arbeit ist die Granit Holding GmbH, deren 29 Tochtergesellschaften in der Baubranche operativ tätig sind und ihre Bauvorhaben als Projekte realisieren. Der Konzern wickelt über 300 Projekte pro Jahr ab, deren Auftragssummen bis über 30 Millionen Euro reichen. Das Rechnungswesen wird zentral von der Granit Holding GmbH für alle Beteiligungen durchgeführt, während die Abwicklung der Bauprojekte durch die 20 eigenständigen Baubereiche individuell erfolgt. Dies hat zur Konsequenz, dass sich das Projektcontrolling zu einem intransparenten Prozess entwickelt hat. Angesichts dieser Ausgangssituation gilt es zu klären, wie ein standardisiertes Projektcontrolling aussieht, das die Kosten-, Ressourcen- und Terminentwicklung der Bauprojekte berücksichtigt. Um diese Problemstellung zu lösen, hat sich diese Arbeit mit dem Projektcontrolling eines Tochterunternehmens, der Singer & Co Baugesellschaft mbH, befasst. Es wurde eine Literaturrecherche zu den Themen Projektmanagement, Projektplanung und Projektcontrolling mit Fokus auf die Bauwirtschaft durchgeführt, ehe eine empirische Erhebung der IstSituation mithilfe eines qualitativen Interviews und quantitativen Fragebogens erfolgte. Als Praxisoutput dieser Masterarbeit gingen die Erhebung und Optimierung der Ist-Situation sowie ein Konzept eines Excel-basierten Projektcontrolling-Reports hervor. Der Report beinhaltet eine Earned-Value-Analyse, die sich als adäquates Instrument für das Projektcontrolling herauskristallisiert hat, weil sie die Kosten-, Ressourcen- und Terminentwicklung der Bauprojekte berücksichtigt. Die Ergebnisse dieser Masterarbeit dienen dem Kooperationsunternehmen für weitere unternehmensinterne Umstrukturierungsprozesse. Damit der Praxisoutput zu mehr Transparenz hinsichtlich des Projektcontrolling-Prozesses im Konzern führen kann, muss jedoch zunächst eine Akzeptanz und Sensibilisierung für eine standardisierte Vorgehensweise in den Baubereichen geschaffen werden.
E-services have a major impact on the business models of companies and define new rules and behaviour patterns in communication between companies and (potential) customers. Looking at the business of consulting agencies, it seems that digital transformation has not yet fully arrived. Consulting agencies advise their customers on the digitization of services and customer touchpoints, while the digitization of services in the consulting industry itself is only progressing slowly. Empirical studies indicate that the consulting industry is able to benefit from the digitization of their services. This thesis investigates how a practical consulting eservice can be developed in order to offer benefits for consultants. The focus is on the development of an e-service in the analysis phase of the customer´s needs within the consulting process. The results of the e-service application represent initial approaches for consultants regarding their potential customer´s need for consulting services. The e-service is used as a supporting tool for consultants, which optimizes internal consulting processes. In order to develop a beneficial e-service, the core question arises as to which consulting steps, methods, procedures and requirements can be identified as key success factors to provide a beneficial e-service assisting in the customer consulting process. Based on a systematic service engineering process, a methodical approach is introduced to successfully develop and evaluate the e-service application. Established consulting tools and methods in practice and science are used to implement the customer self-directed e-service application. The practical part of this thesis consists of the technical implementation of the e-service as an online application. In expert interviews, the e-service is subjected to proof of the applicability in support of consulting services. The results show that a higher efficiency in the consulting process can be achieved through increased flexibility, time and cost savings. Moreover, great potential in the use of the e-service is seen within the consulting industry. The e-service tends to be most suitable in smaller consulting firms. A high suitability of e-service is attributed to consulting services in the field of strategic consulting, consulting in digital communication measures and PR services. SMEs are defined as the main target group of potential customers with the highest acceptance to participate in the e-service.
The development of the information society, the increase in the number of users make the transmission of information more diverse but also attractive as possible and easier to use. Under these circumstances, public or private institutions choose to synthesize and share information through the web sites. More, online shops are nowadays very popular and used because people want to save time, money and flexibility of payment methods.
Recognizing the importance of software products quality has led to key changes in the behavior of software producers by their focus on delivering solutions to ensure client satisfaction. In order to develop software products with a high level of quality and client satisfaction, software developers have adopted best practices and standards for quality management in the software product life cycle. The results of numerous European projects as well as international quality standards have been and are still being adopted and capitalized through quality improvement programs.
To analyze and compare the quality of web sites to see if they meet the users’ requirements are proposing to develop a methodology based on the procedures and algorithms used in the method EWAM - The Extended Web Assessment Method, a methodology that will end with a series of recommendations on designing or implementing web sites. The method responds to a major problem related to the evaluation of ecommerce applications: which are the most relevant criteria to ensure the success of an e-commerce system.
EWAM is a complex method that was created for a detailed analysis of a sample of applications and websites in a particular sector. In this respect, the method is not intended for the mass evaluation of websites.
The EWAM method uses the specific “profile” concept. This is a reference against which the results from evaluating an e-commerce application are compared. One of such profiles have been defined “Best practice” profile – which means a set of methods, techniques, procedures, etc. demonstrated and proven to be the best in current practice and used in the provision of e-commerce services.
The evaluation criteria are formulated in general terms and are valid for any sector, but they are differentiated by the sector-specific importance. In this way, the conditions for identifying the reference sector and benchmarking of different e-commerce applications are created both within a sector and between different sectors.
The establishment of (referential) “profiles” allows the comparison of the quality of an e-commerce application with the average quality of a given sector, and, at the same time, the comparison with the best practices used in the sector.
The focus lies on consumer perspectives and the specific features of the Internet as a medium. Using the EWAM tool, an analysis of four commercial Web sites in the same business sectors – fashion but in two different countries, will be performed: the websites as Orsay (www.orsay.com), Zara (www.zara.com), H&M (www.hm.com) and Mango (www.mango.com). The results will be per country compared. Furthermore, the work analyses the conceptual elements such as quality models, software product quality in general and the methodology to prove the web sites quality as well - The Extended Web Assessment Method.
The empirical section based on The Extended Web Assessment Method examines and evaluate the online shops of Orsay, Zara, H&M and Mango websites based on interviewing people from Austria and Romania. Web assessment is a very ambitious and labor-intense work. The assessors should meet certain criteria:
• They need to understand the criteria of the Web assessment form very well, hence they must undergo a thorough instruction
• They must be experienced Web users
• They must take the time to go through all four transaction phases for each Web sites assessed (including delivery and payment!)
The objectives of experimenting with the EWAM method are:
• verifying and validating website evaluation criteria specified in the EWAM method;
• verifying the applicability of the method for measuring and evaluating websites in the field of fashion e-commerce in Romania and Austria - its comparing;
• formulating new criteria on the evaluation of websites, in general, and of fashion e-commerce websites, using results comparison from two European countries – Austria (central Europe) and Romania (eastern Europe)
Additionally, a set of questions will be performed to find if e-commerce systems, especially B2C systems in fashion sector, operate in selected target countries as well as it does in its home country, across geographic boundaries. Does the site respect cultural differences between the home and foreign country? Which are the particularly needs to for fashion e-commerce websites? Are the user needs changed due modern technology – use they nowadays more web or apps? The answers will conclude if the ‘best practices’ profiles can be extended with new criteria on evaluation of fashion e-commerce websites due modern technology and internationalization/globalization.
Die steigende Zahl von Pflegebedürftigen, Personalmangel in der Pflegebranche, Pflege in den eigenen vier Wänden, sowie der Wunsch nach besserer Qualität, wirtschaftlicher Transparenz und im Allgemeinen ein gewissenhafter Einsatz von Ressourcen – all das sind Kennzeichen, die in der Pflege von heute unumgänglich sind. Zukünftig werden sich in dieser Branche sowie auch am Arbeitsmarkt diverse Veränderungen und Herausforderungen zeigen. Für nahezu alle Branchen, Prozesse und Bereiche gibt es Qualitätsmanagementmethoden. Anhand von Kennzahlen können sie gemessen bzw. kontrolliert und anschließend adaptiert werden. Gerade im Bereich der 24-Stunden-Betreuung müssen Leistungs- und Qualitätsnachweise einem wachsenden Druck standhalten. Dennoch hat das System bisher keine verlässlichen Methoden aufweisen können, um die Qualität von Agenturen und Unternehmen zu messen und zu steigern. Daher stellt sich die Frage, wie ein Qualitätsmanagementmodell aussehen könnte, das speziell für die Branche der Personenbetreuung und Beratung entwickelt wird, um die Qualität so simpel wie möglich zu identifizieren und ggf. zu optimieren. Ziel dieser Arbeit ist die Erstellung eines praktikablen Qualitätsmanagementmodells für die 24-StundenBetreuung. Hierfür wurden im Theorieteil verschiedene Qualitätsmanagementmethoden, Anreizsysteme sowie Siegel analysiert und Methoden bzw. Modelle, die für die 24-Stunden-Pflege am besten geeignet erscheinen, miteinander verglichen. Aufgrund der daraus gewonnenen Erkenntnisse konnte das „ImpactModell“ erstellt werden, das auf dem EFQM-Modell basiert. Im empirischen Teil wurde das erstellte Modell unter Einbindung der Agentur „gutbetreut.at“ überprüft bzw. angepasst. Anschließend führte die Autorin Experteninterviews durch, nach deren Auswertung Defizite identifiziert, Anpassungen am Modell vorgenommen, sowie Handlungsempfehlungen dazu abgegeben werden konnten. Grundsätzlich kann abschließend festgestellt werden, dass das adaptierte Modell in der Praxis einsetzbar ist.
Im Marketing und in der Marktforschung wurde davon ausgegangen, dass Kunden ihre Kaufentscheidungen in erster Linie auf Basis rationaler Faktoren treffen. Aktuelle Hirnforschungen belegen jedoch, dass emotionale Faktoren einen signifikant höheren Anteil einnehmen als rationale Faktoren. Das Neuromarketing beschäftigt sich mit der emotionalen Entscheidungsfindung. Eine bedeutende Erkenntnis des Neuromarketings ist, dass es im Gehirn des Kunden nicht einen großen Kaufknopf gibt. Ein Unternehmen muss ganzheitlich auf das emotionale Kundengehirn ausgerichtet sein, damit Neuromarketing funktioniert. Es existieren verschiedene Prinzipien und Anwendungsmethoden des Neuromarketings, die auf zahlreiche Bereiche eines Unternehmens angewendet werden können. Ziel der vorliegenden Masterthesis ist es, ein Verfahren zu entwickeln und zu evaluieren, das eine ganzheitliche Betrachtung eines Unternehmens mit unterschiedlichen Prinzipien sowie Anwendungsmethoden des Neuromarketings systematisch kombiniert. Dieses Verfahren soll eine zielgerichtete Anwendung der Neuromarketing-Methoden ermöglichen. Dazu wurden zunächst Modellierungssprachen für Geschäftsmodelle sowie verschiedene Anwendungsmethoden und Prinzipien des Neuromarketings analysiert, um in der Folge Teile dieser Methoden in einem Vorgehensmodell miteinander zu verknüpfen. Anschließend wurde das Vorgehensmodell in Workshops angewendet und anhand verschiedener Kriterien bewertet. Die Analyse dieser Bewertung lässt darauf schließen, dass durch die Anwendung des Vorgehensmodells Ideen auf Basis der Neuromarketingprinzipien generiert worden sind. Demzufolge stellt das Ergebnis dieser Arbeit ein Vorgehensmodell dar, das eine ganzheitliche Betrachtung eines Unternehmens mit unterschiedlichen Prinzipien und Anwendungsmethoden des Neuromarketings systematisch kombiniert und durch dessen Anwendung Ideen für das Neuromarketing eines Unternehmens generiert werden können.
Die Unternehmen der Branche Gewerbe und Handwerk stehen vor neuen Herausforderungen. Zahlreiche Parameter beeinflussen zunehmend die Tätigkeitsbereiche und Aufgaben von zumeist recht traditionsbehafteten Handwerksbetrieben. Fortschreitende Digitalisierung, veränderte Bestimmungen in der Gesetzgebung und ansteigende Modernisierung zwingen Betriebe zum Umdenken und erfordern Handlungsbedarf. Aufgrund dieser Entwicklungen beschäftigt sich die hier vorliegende Masterarbeit mit den nachfolgenden Fragestellungen: Wie können Handwerksbetriebe Geschäftsmodelle systematisch entwickeln, um den Berufsstand nachhaltig zu sichern? Welche entwickelten Geschäftsmodelle beziehungsweise Angebote werden von den Kunden befürwortet? Um diese Fragen zu beantworten wurde mithilfe umfassender Literaturrecherche ein Vorgehensmodell zur Entwicklung von Geschäftsmodellen in der Berufsgruppe der Rauchfangkehrer erarbeitet. Dieses entwickelte Vorgehensmodell wurde im praktischen Teil der Arbeit mit dem Rauchfangkehrerbetrieb Christa Gumhold-Stiplovsek Schritt für Schritt durchgearbeitet. Mithilfe des systematischen Durchlaufs der vier Phasen konnten zwei neue Geschäftsmodelle für den Partnerbetrieb entwickelt werden. Das erste Geschäftsmodell bietet dem Kunden die Möglichkeit sein Zuhause in ein Smart-Home zu verwandeln und den Zutritt für Handwerker von überall aus zu steuern. Durch den Verkauf und die Installation dieses Zutrittssystems kann der Betrieb einen zusätzlichen Verdienst erwirtschaften und Kosten, welche durch verpasste Termine entstehen können, einsparen. Das zweite Modell ermöglicht die Inanspruchnahme von kundenangepassten Angeboten. In Form von AddOn Paketen kann der Kunde weitere Dienste des Rauchfangkehrers buchen und das Unternehmen kann dadurch zusätzliche Einnahmen generieren. Diese beiden Geschäftsmodelle wurden dem Partnerbetrieb vorgestellt und deren Umsetzung empfohlen. Nach der intensiven theoretischen und praktischen Auseinandersetzung kann gesagt werden, dass sich das erstellte Vorgehensmodell in der Berufsgruppe der Rauchfangkehrer eignet, um neue Geschäftsmodelle zu generieren, die bevorstehenden Herausforderungen von Handwerksbetrieben zu bewältigen und den Berufstand nachhaltig zu sichern.
Die Entwicklung eines Online-Marktplatzes stellt ein komplexes Vorhaben mit Verknüpfungen zu verschiedensten Unternehmensbereichen dar. Das mit der Umsetzung betraute Projektteam setzt sich aus einer Vielzahl von Personen mit unterschiedlichsten Fachkenntnissen zusammen. Diese Form der Zusammenstellung des Teams kann zu Verständigungs- und Verständnisproblemen führen. Damit diese Probleme erst gar nicht auftreten, benötigt es von Anfang an ein aussagekräftiges und klar definiertes Geschäftsmodell. Die Ausarbeitung eines Geschäftsmodells für einen Online-Marktplatz benötigt neben dem Know-how in den Bereichen E-Commerce und Infrastruktur auch das Wissen über die Geschäftsmodelle der Mitbewerber. In dieser Arbeit wurde daher zuerst das benötigte Wissen für die Erarbeitung eines Geschäftsmodells generiert sowie eine Mitbewerberanalyse durchgeführt. Mit den erworbenen Kenntnissen wurde ein erfolgversprechendes Geschäftsmodell für einen Online-Marktplatz erarbeitet. Die Visualisierung des Geschäftsmodells wurde dabei mit Hilfe des Platform Business Model Canvas von Walter/Hoogendoorn geschaffen. Dieses Modell ermöglicht es, dass nicht nur das Wertangebot und die Werttransaktionen des Marktplatzbetreibers dargestellt werden, sondern es schafft auch Einblicke in die Stakeholder-Perspektiven. Im Anschluss daran wurde mit Hilfe eines Workshops und eines Fokusgruppeninterviews das erarbeitete Geschäftsmodell an den myWorld Marktplatz angepasst. Das Ergebnis bildet das Geschäftsmodell für den myWorld Marktplatz ab. Neben dem ausgearbeiteten Modell wurde auch eine Handlungsempfehlung mit Weiterentwicklungspotenzialen und Geschäftsmodellanpassungen erstellt.
Im produzierenden Gewerbe spielen Dienstleistungen zur Differenzierung vom globalen Wettbewerb und zur Individualisierung des Leistungsangebots eine immer wichtiger werdende Rolle. Sie helfen Unternehmen einen Wettbewerbsvorteil zu verteidigen und so das langfristige Überleben der Organisation zu gewährleisten. Zunehmende Geschwindigkeit technologischer Entwicklungen und sich verändernde Kundenerwartungen stellen Unternehmen vor die herausfordernde Aufgabe, ihr Dienstleistungsportfolio kontinuierlich zu verbessern und zu erneuern. Trotz ihrer immensen wirtschaftlichen Bedeutung wurde die Dienstleistungsinnovation lange Zeit in der Innovationsforschung stiefmütterlich behandelt. Die unklare Abgrenzung von Gütern und Dienstleistungen in wirtschaftlichen Produkten sowie die Gleichzeitigkeit von Erstellung, Konsum und Qualitätsbeurteilung stellen Unternehmen vor große Herausforderungen ihre Dienstleistungen systematisch zu innovieren. Zwar finden sich in der Literatur zahlreiche Prozesse und Modelle, die jedoch entweder zur Produktinnovation entwickelt wurden oder ganz und gar abstrakt gehalten wurden, um die Heterogenität von Dienstleistungen abbilden zu können. Vor diesem Hintergrund soll in dieser Masterarbeit die Dienstleistungsinnovation für produzierende Unternehmen operationalisiert und nutzbar gemacht werden. Dazu wird der Begriff zuerst in seine Einzelbestandteile zerlegt, die getrennt voneinander betrachtet und dargestellt werden. Der Fokus liegt dabei insbesondere auf der Service-Dominant Logic, Dienstleistungsqualität, spezifischen Ressourcen und einzelnen Innovationsprozessen, die entweder für die Dienstleistungsinnovation entwickelt wurden oder sich zumindest laut deren Autoren dafür eignen sollen. Das Ergebnis des Theorieteils bildet das Grundgerüst eines Vorgehensmodells, das eine Verdichtung des bisherigen Stands der Forschung repräsentiert und mit Werkzeugen sowie Methoden für die einzelnen Phasen angereichert wurde. Mit Hilfe von zehn explorativen Einzelinterviews mit Innovationsverantwortlichen in produzierenden Unternehmen, leitenden Angestellten und Service Designern werden die Annahmen des Modells einem Praxistest unterzogen. Im Rahmen der Ergebnispräsentation werden die Kernaussagen der Gespräche präsentiert und in einen Gesamtkontext gesetzt. Dabei zeigt sich, dass sich produzierende Unternehmen der Problematik der Dienstleistungsinnovation durchaus bewusst sind, jedoch häufig noch kein Konzept besitzen, wie sie ihr begegnen können. Der Grad der Systematik hängt dabei teilweise von der Größe des Unternehmens oder der grundlegenden Arbeits- und Prozessgestaltung des Unternehmens ab. Durch die präferierte Projektstruktur einzelner Dienstleistungsinnovationen, verstehen nur wenige Unternehmen Innovation als kontinuierlichen Prozess im gesamtunternehmerischen Kontext, was aber aus Sicht der Literatur wichtig wäre. Im Schlusskapitel wird das Modell mit den Erkenntnissen aus den Einzelinterviews angereichert und so für die Einführung und Anwendung in der Praxis vorbereitet.
Die immer schneller voranschreitende Digitalisierung ist ein Thema, das Unternehmen zum Handeln drängt. Die Kommunikation mit den Kunden und mit den Lieferanten verändert sich ständig, Programme werden laufend verbessert und es ergeben sich auch im Marketing durch die Digitalisierung neue Wege, den Kunden zu erreichen. In den Unternehmen selbst sorgt die Digitalisierung dafür, dass sich bekannte Arbeitsweisen verändern, neue Wege beschritten und alte Prozesse transformiert werden. Viele Unternehmen haben aber Schwierigkeiten, im Zuge der Digitalisierung die Bedürfnisse ihrer Mitarbeiter nicht zu vernachlässigen. Vor allem im Bereich der Softwareentwicklung führt die steigende Digitalisierung und Nutzung von agilen Methoden oftmals zu Unmut bei den beteiligten Entwicklern. In dieser Masterthesis geht es darum, die konkreten Bedürfnisse von Softwareentwicklern in Bezug auf agile digitalisierte Prozesse zu identifizieren, die aus Sicht der Entwickler unbedingt berücksichtigt werden müssen. Zur Identifikation der Bedürfnisse wurden zehn leitfadengestützte Tiefeninterviews mit Softwareentwicklern durchgeführt. Der Leitfaden beinhaltete dabei die vier kontextrelevanten Themenbereiche „Agiles Prozessmanagement“, „Agile Methoden“, „Digitalisierung“ und „Wertangebot von Prozessen“. Die transkribierten Interviews wurden analysiert und relevante Statements wurden erfasst. Diese Statements wurden dann zu übergeordneten Bedürfnissen zusammengefasst und pro Themenbereich wurde ein Kundensegment einer Value Proposition Canvas erstellt, in denen die Bedürfnisse priorisiert abgebildet sind. Des Weiteren wurde aus den erhobenen Daten der Interviews eine Persona eines Softwareentwicklers erstellt. Das Ergebnis der Masterthesis bildet eine Handlungsempfehlung für die Transformation von klassischen Prozessen hin zu agilen digitalisierten Prozessen. Unternehmen, die in diesem Transformationsprozess stecken, können die erstellten Kundensegmente nutzen, um einen „fit“ mit dem Wertangebot ihres Prozesses zu erreichen.
Digitalization is becoming more and more important in today’s economic world. Global competition is more competitive than ever and digital transformation is accelerating this process every day. Existing business models are less and less meeting the expectations of consumers with 24/7 availability requirements. Especially in retail, the fight between online and offline retailers is intensifying into an unfair power show. The physical trade and its suppliers are forced to offer the comfort and convenience of the online business. The adaptation and expansion of existing business models is a first approach to connect the two worlds and make the fight of online against offline a multichannel shopping experience for consumers. However, this transformation not only affects the trading companies themselves, but also calls on the suppliers of digital technologies to implement this ambitious project. The aim of this thesis is to develop a procedure model that provides guidance for the expansion of existing business models and technology portfolios. The procedure model is tested at an exemplary electronics company and the findings are directly implemented into a revised version of the initially proposed procedure model. In order to further validate the aforementioned procedure model, experts from the retail branch will also be interviewed in order to gain further insights into its relevance.
Der sich ununterbrochen verändernde Konsumgütermarkt, speziell jener in der alkoholischen Getränkeindustrie, verlangt von Messtechnikunternehmen eine synchrone Weiterentwicklung ihrer Produkte und Dienstleistungen, damit ein langfristiger Unternehmenserfolg gewährleistet werden kann. Neue Generationen bringen auch neue Lebensweisen und Trends mit ans Tageslicht, welche sich in neuen Rezepten und Inhaltsstoffen der Lebensmittelindustrie wiederspiegeln. Demnach ist eine fortwährende Anpassung im Produktportfolio der verschiedensten Getränkehersteller unumgänglich. Um als Messtechnikhersteller solchen Anforderungen gerecht zu werden, müssen die Kundenbedürfnisse der Getränkehersteller frühzeitig und systematisch erhoben werden. Die Anton Paar GmbH, ein Unternehmen in der Messtechnik-Branche, entwickelt und produziert hochgenaue Messgeräte, welche unter anderem für die Qualitätskontrolle in der Getränkeindustrie verwendet werden. Ziel dieser Arbeit ist die Entwicklung eines praxistauglichen Vorgehensmodells für Messtechnikentwickler, um kurzfristige oder langfristige, sowie artikulierte als auch latente Kundenbedürfnisse, in der alkoholischen Getränkeindustrie ausfindig zu machen. Das Ergebnis des Theorieteils schließt mit einem Vorgehensmodell ab, welches sich aus drei aufeinanderfolgenden Phasen zusammensetzt und das nötige Werkzeug für die Beantwortung der Forschungsfrage mit sich bringt. Im darauffolgenden Praxisteil wird das Vorgehensmodell in Form eines Fallbeispiels, in Bezug auf die Anton Paar GmbH, einmalig komplett durchlaufen und widmet sich ausschließlich der Bierindustrie. Die erste Phase des Modells ist die Orientierungs- und Entscheidungsphase. Diese Phase beinhaltet den Anstoß, das Suchfeld und die Marktsegmentierung. In der Analyse- und Erhebungsphase wurde die Branchenumwelt mithilfe eines Trendworkshops und einer Konkurrenzanalyse, sowie durch eine Befragung von Experten der Bierindustrie untersucht. In der letzten Phase, der Auswertungsphase, wurde eine qualitative Inhaltsanalyse durchgeführt, um letztendlich eine Handlungsempfehlung für das Unternehmen abzugeben. Die systematische Top-Down Vorgehensweise, welche automatisch vom Modell vorgegeben wird, ermöglicht die Beantwortung der Forschungsfrage und hat sich somit bewährt. Für die Wein- und Spirituosenindustrie müsste das Modell erneut durchlaufen werden, um seine Tauglichkeit diesbezüglich überprüfen zu können. Megatrends wie die Individualisierung sind in der Bierbranche angekommen und müssen von der Anton Paar GmbH zukünftig berücksichtigt werden. Das Ergebnis des Vorgehensmodells hat gezeigt, dass die Messung des Bitterwertes und somit die Bestimmung der Geschmacksnote, aufgrund der Kundenanpassung immer wichtiger wird. Industriebrauereien werden durch den vermehrten Einsatz von Aromahopfen, neue Biersorten mit diversen Geschmacksrichtungen auf den Markt bringen. Aus diesem Grund wird der Bitterwert als Qualitätsparameter im Bier, immer wichtiger werden, weshalb die Anton Paar GmbH als Marktführer in der Bierindustrie, ein Messgerät dafür anbieten sollte. Um den Detaillierungsgrad der Kundenbedürfniserhebung noch weiter zu erhöhen, wird als Fortsetzung dieser Arbeit, der bereits fertig ausgearbeitete Job-to-be-done Fragebogen an den Vertrieb der Anton Paar GmbH ausgesendet. Sobald der Fragebogen von mindestens 30 Kunden beantwortet wurde, kann im Anschluss eine detaillierte Rahmenvorgabe für die Entwicklung eines Messgerätes zur Bestimmung des Bitterwertes, erstellt werden.
Die Sparte Tourismus und Freizeitwirtschaft stellt einen der größten Wirtschaftszweige in Österreich dar, wobei die Hotellerie einen Teil dieser Sparte einnimmt. Dabei ist die österreichische Hotellerie durch eine Vielzahl an unterschiedlichsten Angeboten und Geschäftsmodellen gekennzeichnet, wodurch immer verschiedene Personengruppen angesprochen werden sollen. Durch dieses große Angebot wird es sowohl für neuaufkommende Hotels als auch für bestehende Hotels immer schwieriger, sich auf diesem Markt durchzusetzen und sich einen Ruf aufzubauen. Im theoretischen Teil dieser Masterarbeit wurde auf Grund dieser Problematik ein Vorgehensmodell zur systematischen Geschäftsmodellentwicklung in der Hotellerie entwickelt, um sich mit einem neuen Geschäftsmodell erfolgreich am Markt platzieren zu können. Nach der Entwicklung des Vorgehensmodells wurde dieses im praktischen Teil dieser Masterarbeit anhand eines konkreten Beispiels umgesetzt. Dabei wurde im ersten Schritt eine Vision festgelegt, danach erfolgten die Analyse der Ist-Situation sowie die Trendidentifikation und die Kundenanalyse. Nach der Durchführung dieser Schritte wurde das Geschäftsmodell mit Hilfe des Geschäftsmodells nach Biloslav/Bagnoli konkretisiert, um anschließend das entwickelte Modell mit einer Expertenbefragung und einer Kundenbefragung zu evaluieren, wobei aus der Evaluierung weitere Empfehlungen für das Geschäftsmodell abgeleitet wurden. Angesichts der Problemstellung dieser Masterarbeit ist es eine Empfehlung, das im Theorieteil entwickelte Vorgehensmodell bei der Erarbeitung eines neuen Geschäftsmodells in der Hotellerie zu verwenden.
Zukunftsforschung gewinnt immer mehr an Bedeutung und dient Unternehmen gerne als Grundlage für strategische Entscheidungen. Szenariotechnik und Delphi-Methode sind zwei bewährte Ansätze, um ein Bild der Zukunft zu erhalten. Eine Kombination der beiden Methoden wird jedoch weniger häufig eingesetzt.
Die Logistikbranche ist ein hart umkämpfter Markt. Die Margen sind vor allem im Transportbereich sehr gering und die Dienstleistung ist leicht imitierbar.
Ziel dieser Arbeit ist es, im Theorieteil die Charakteristika der beiden Ansätze Szenariotechnik und Delphi-Methode zu identifizieren und zu analysieren. In weiterer Folge soll ein Vorgehensmodell zur strategischen Vorausschau durch Kombination von Szenariotechnik und Delphi-Methode entwickelt werden. Die Berücksichtigung der Anforderungen und Besonderheiten der Logistikbranche ist dabei wesentlich.
Der Praxisteil hat zum Ziel, ein aussagekräftiges Zukunftsbild für den Logistikdienstleister DB Schenker durch Anwendung des entwickelten Vorgehensmodells zu skizzieren. Abschließend sollen aus den Ergebnissen der strategischen Vorausschau Handlungsempfehlungen abgeleitet werden, welche DB Schenker als Grundlage für strategische Entscheidungen dienen sollen.
Um die Charakteristika von Szenariotechnik und Delphi-Methode zu identifizieren, wurde eine intensive Literaturrecherche durchgeführt. Im Theorieteil dieser Arbeit wird deutlich, dass die Akzeptanz, Gültigkeit und Plausibilität von Szenarien stark gesteigert werden, indem Expertenwissen mit Hilfe der DelphiMethode generiert wird und in den Szenarioprozess miteinfließt. Mit der Szenariotechnik als übergeordnete Methodologie entsteht in Kombination mit der Delphi-Methode ein Vorgehensmodell zur strategischen Vorausschau für die Logistikbranche, welches gewährleistet, dass charakteristische Faktoren für diese Branche berücksichtigt werden und somit die Qualität der individuellen Ergebnisse gesteigert werden kann.
Im Praxisteil dieser Arbeit wurde das generierte Vorgehensmodell zur strategischen Vorausschau am Logistikdienstleistungsunternehmen DB Schenker angewendet. Im Rahmen eines Expertenworkshops wurden die Einflüsse auf den definierten Handlungsrahmen mittels Trendkarten identifiziert. Neben der Digitalisierung und dem technologischen Fortschritt wirken sich außerdem die steigenden, individuellen Kundenbedürfnisse, neue Umweltbestimmungen und veränderte Anforderungen an den Arbeitgeber auf die Zukunft für ein Unternehmen in der Logistikbranche aus. Auf Basis der Erkenntnisse wurde eine zweistufige Delphi-Befragung durchgeführt, um durch Experteneinschätzungen ein mögliches Bild der Zukunft zu generieren. Ein Best- sowie ein Worst-Case-Szenario fassen die gewonnenen Erkenntnisse zusammen. Um mögliche Trendbrüche und Störereignisse zu identifizieren, fand ein zweiter Expertenworkshop statt. Abschließend erhält DB Schenker ein Bild der Zukunft der Logistikbranche in 20 Jahren, welches nicht nur autonomes Fahren und die Belieferung durch Drohnen als selbstverständlich ansieht, sondern auch die Beförderung von Waren mittels Unterdrucksystem und die vollständige Ablösung von gewerblichen Mitarbeitern durch Robotik für möglich hält.
Zusammenfassend zeigt diese Arbeit, dass strategische Vorausschau mit einem branchenspezifischen Modell systematisch anwendbar ist und für Unternehmen die strategische Planung vereinfacht. Durch die Miteinbeziehung von Experten in zwei Workshops und einer zweistufigen Delphi-Befragung kann trotz volatiler Zukunftssituation ein Konsens gefunden werden und ein Bild der Zukunft entstehen, welches weitere strategische Entscheidungen unterstützt.
Der Trend der Zeit zeigt eine stetige Weiterentwicklung in der Legehennenhaltung. Diese ist mit Herausforderungen verbunden, die der Landwirt zu bewältigen hat, um den wirtschaftlichen Erfolg seines Betriebes nachhaltig zu sichern. Hierzu zählt einerseits die Effizienzsteigerung des Betriebes durch die Überwachung der Legeleistung, sowie den Schutz der Legehennen vor Raubtieren. Diese wissenschaftliche Arbeit befasst sich mit der Evaluierung verschiedener Konzepte für eine automatisierte Erfassung der Legeleistung und Zutrittsüberwachung bei geschlossener Auslauföffnung, um das Huhn vor Raubtieren zu schützen. Zunächst werden Methoden zur Identifikation von Legehennen erläutert und auf deren Eignung geprüft. Diese basieren auf zwei grundlegenden Technologien. Mit Hilfe der RFID (Radio Frequency Identification) Technologie, als auch mittels Bildverarbeitung werden die Legehennen identifiziert. Daraus folgend werden Konzepte zur Realisierung erarbeitet und bewertet. Nach Auswahl geeigneter Konzepte werden diese in einem Versuchsaufbau getestet. Bei der Umsetzung mittels RFID wird ein System im Frequenzbereich von 125 kHz gewählt. Im Bereich der Bildverarbeitung wird die Umsetzung mit der Entwicklungsumgebung HDevelop von HALCON realisiert. Das Ergebnis der Versuchsaufbauten zeigen mögliche Lösungswege auf und machen die Schwierigkeiten und Herausforderungen der Technologien sichtbar.
Der Arbeitsmarkt hat sich in den letzten 20 Jahren massiv verändert, jedoch haben viele Unternehmen diese Veränderungen nicht wahrgenommen. Die Bedürfnisse der Mitarbeiter haben einen höheren Stellenwert erhalten, welche sich von Generation zu Generation unterscheiden. Daher war das Ziel der vorliegenden Masterarbeit, unter anderem, die Erfolgsfaktoren im Bereich Personalbeschaffung der Generation Y zu identifizieren und daraus Handlungsempfehlungen abzuleiten. Hierzu wurde im theoretischen Teil dieser Arbeit eine Literaturrecherche durchgeführt, um einen Überblick über den derzeitigen Forschungsstand zu erhalten. Im theoretischen Teil dieser Arbeit wurden die Grundlagen der Generationentheorie behandelt. Der Fokus lag dabei auf der Generation Y, da diese Generation derzeit den größten Einfluss auf den Arbeitsmarkt hat und daher von größter Bedeutung für Unternehmen ist. Die Analyse der verschiedenen Generationen führte in weiterer Folge zu der Erfolgsfaktorenforschung. In diesem Kapitel wurden die verschiedenen Methoden und Anforderungen an die Erfolgsfaktorenforschung dargestellt. Die Methode „der methodisch und materiell gestützten Identifikation von Erfolgsfaktoren“, hat sich als jene herausgestellt, die den größten Erfolg verspricht. In weiterer Folge wurden die derzeitigen Trends der Personalbeschaffung analysiert. Daraus ergab sich, dass die HR-Trendarbeit als eine von zwei relevanten Erfolgsfaktoren der Personalbeschaffung genannt wird. Weiters ergab sich, dass die Trends der Individualisierung und Digitalisierung einen erheblichen Einfluss auf die Personalbeschaffung aufweisen. Der Abschluss des theoretischen Teils dieser Arbeit, war die Erstellung eines Vorgehensmodells zur Identifikation von Erfolgsfaktoren im Bereich Personalbeschaffung der Generation Y. Dieses Modell beruht auf dem Fundament der Erfolgsfaktorenforschung und bedient sich an drei Phasen, welche so miteinander verknüpft wurden, dass die Ergebnisse dieses Modells praxisrelevante Handlungsempfehlungen ergeben. Die erste Phase des Modells bediente sich dreierlei verschiedener Methoden zur Erlangung der ersten Erkenntnisse und zur Orientierung. Diese Methoden waren das Trendmapping mit anschließendem Brainstorming und einer finalen Punktebewertung. Die herangezogenen Methoden der zweiten und dritten Phase waren eine quantitative Datenerhebung der Generation Y und qualitative Experteninterviews. Durch dieses Vorgehen ergaben sich unter anderem als wesentliche Erfolgsfaktoren im Bereich der Personalbeschaffung der Generation Y, die persönliche und berufliche Weiterentwicklung, eigenverantwortliches Arbeiten und ein positives Arbeitsklima. Ebenso ergab sich im Zuge der Arbeit, dass Unternehmen viel mehr in das Employer Branding und ihren online Auftritt investieren müssen. Maßnahmen zur Umsetzung der Erfolgsfaktoren in Unternehmen sind beispielsweise Benchmarking, Kürzung der Wochenarbeitszeit und das Schaffen und Erhalten eines positiven Betriebsklimas. Diese und weitere Erkenntnisse der vorliegenden Arbeit sind speziell für Geschäftsführer und HR-Manager sowie Personen die im Personalbeschaffungsprozess eines Unternehmens involviert sind, relevant. Insbesondere ist diese Arbeit an Unternehmen gerichtet, welche Ingenieurdienstleistungen, wie beispielsweise Project Management, technische Organisationsberatung oder Planungstätigkeiten im Industrieanalagenbau oder ähnlichen Bereichen, anbieten.
Verkauf durch Emotionen
(2020)
Die vorliegende Arbeit wurde im Rahmen des Masterstudiengangs „Sales Management“ an der Fachhochschule der Wirtschaft Campus 02 in Graz erstellt. Sie beschäftigt sich mit dem Thema Emotionen im Verkauf und hat als Ziel, ein Konzept zu erarbeiten, das mit Hilfe von Emotionen die Kundenansprache und Betreuung der Firma L’Oréal Österreich GmbH in der Professionelle Produkte Division verbessert. Obwohl Kundenorientierung kein neues Thema in der Wissenschaft ist, wird es oft nur als Floskel verwendet und selten wirklich eingesetzt. Diese Kundenorientierung ist aber der Grundstein für eine gute Kundenbeziehung, die auf Zufriedenheit und Vertrauen aufbaut. Die Kundinnen und Kunden müssen sich an jedem Kontaktpunkt ihrer Reise bis zum Kauf wohlfühlen und etwas erleben, denn nur dann bleibt das Gespräch in Erinnerung. Denn die Entscheidungen, die nur allzu gerne rational begründet werden, vor allem im B2B-Bereich, werden alle auf einer emotionalen Ebene getroffen. Der Entscheidungsgrund für oder gegen ein Produkt oder eine Dienstleistung ist die Summe der unterbewusst wahrgenommenen Reize während des Verkaufsgespräches. Jedes Wort wird auf die Goldwaage gelegt. Ist es im Kopf der Kundinnen und Kunden positiv hinterlegt wird die Verkäuferin oder der Verkäufer auch sympathischer und positiv wahrgenommen. Dies führt zum Kauf. Daher ist auch die Emotionale Intelligenz im Vertrieb essenziell, um Emotionen erkennen zu können und daraus positive Ergebnisse zu ziehen. Mithilfe eines Online-Fragebogens wurden Friseurinnen und Friseure befragt, welche Kontaktpunkte dabei für sie die wichtigste Rolle spielen, wie zufrieden sie aktuell mit den Touchpoints sind und wie sympathisch deren Betreuerin oder Betreuer wahrgenommen werden. Es hat sich durch die Erhebung herausgestellt, dass genau diese Sympathie der Schlüssel ist, um Kundinnen und Kunden zufrieden zu stellen und die menschliche Ressource somit eine der Hauptrollen spielt, ob gekauft wird oder nicht. Darauf aufbauend wurde ein Konzept erstellt, in das die Ergebnisse einfließen und so einen Maßnahmenkatalog bilden, der zu besseren Absatzzahlen führen und die Kommunikation des Vertriebs auf eine emotionale Ebene bringen soll.
Die Aufgabenstellung der Masterarbeit bestand darin, für die Firma IPEAK SYSTEMS GmbH die Erarbeitung eines Vertriebskonzeptes zur Neukundenakquise im digitalen B2B Dienstleistungssektor zu erstellen. Diverse Modelle und Marketingstrategien dienten als Basis, um daraus Handlungsempfehlungen zur Umsetzung eines Produktes im digitalen Fitnessbereich – der App IPEAK-Creator – abzuleiten. Mit Hilfe der Sekundärmarktforschung wurde eine erste Situationsbestimmung durchgeführt. Hierbei wurden die App und der Fitnessmarkt beleuchtet. Eine Wettbewerbsanalyse sowie PEST-Analyse lieferten weitere Erkenntnisse. Um konkrete Vertriebsansätze für die Strategieentwicklung entwickeln zu können, wurde eine Primärmarktforschung anhand von zwei definierten Buyer Personas durchgeführt. Eine interne Analyse gab weiteren Aufschluss über die identifizierten Stärken und Schwächen des Unternehmens, die schlussendlich den Potenzialen der drei wichtigsten MitbewerberInnen gegenübergestellt wurden. Die internen und externen Analyseergebnisse wurden in Folge in einem SWOT-Katalog verzahnt. Anhand der SWOT-Ergebnisse wurden zwei strategische Stoßrichtungen herausgefiltert, die für die Umsetzung einer Vertriebsstrategie relevant sein können. Die Untersuchung von Inbound- und Outbound-Strategiemaßnahmen hat gezeigt, dass für die Realisierung - der App IPEAK-Creator - das Inbound Marketing als Vertriebsstrategie wesentliche – vor allem auch kostensparende – Vorteile mit sich bringt. Für die Firma IPEAK SYSTEMS GmbH wurden daraus Handlungsempfehlungen abgeleitet und ein Maßnahmenkatalog erarbeitet, die die Vorzüge des Inbound Marketings besonders berücksichtigen.
Der B2B-Handelsmarkt, besonders im Bereich Hygiene, kennzeichnet sich durch steigenden Wettbewerbsdruck. Dies bedeutet, dass Produkte substituierbar sind, der Preisdruck seitens der KundInnen immer größer wird und die eigenen Kosten steigen. Um diesen Umständen entgegenzuwirken, bedarf es einer idealen Steuerung der VerkäuferInnen. Auf Grund dessen beschäftigt sich diese Masterarbeit mit der Erstellung eines Kennzahlenkataloges zur operativen Steuerung des Vertriebs für die CWS Hygiene Österreich GmbH. Dadurch sollen Unternehmensziele erreicht und die VertriebsmitarbeiterInnen zielorientiert gesteuert werden. Der theoretische Teil dieser Arbeit widmet sich einerseits dem B2B-Vertrieb, erklärt diesen und geht auf die verschiedenen Typen von VerkäuferInnen dieser Branche ein. Andererseits werden die Begriffe Vertriebssteuerung und Management Reporting erläutert. Da ein Vertriebscontrolling ohne Kennzahlen nicht funktionieren kann, werden diese in einem eigenen Kapitel betrachtet. Die gewonnenen Erkenntnisse aus der Literatur dienen als Basis für den empirischen Teil dieser Arbeit. Zudem schließt der Autor den theoretischen Teil mit einem Idealplan zur Erstellung eines Kennzahlenkataloges ab. Zu Beginn des praktischen Abschnitts werden Einzelexplorationen mit vier Vertriebsleitern bzw. Vertriebsleiterinnen durchgeführt. Schwerpunkte der Befragungen sind die Vertriebssteuerung allgemein, Kennzahlen und die Art und Weise des Reportings. Die Befragungen haben auch gezeigt, was es bei der Verwendung von Kennzahlen zu beachten gibt. Die wichtigsten Ergebnisse hierbei sind explizite Kennzahlen, die zur Steigerung der Angebotserfolgsquote und der Cross- bzw. UpSelling Quote dienen. Diese Erkenntnisse bilden das Fundament für den unternehmensinternen Workshop bei CWS. In diesem wurde ein Kennzahlenkatalog und dessen Berichtswesen entwickelt. Dadurch kann sichergestellt werden, dass das Vertriebscontrolling ideal auf die Bedürfnisse des Unternehmens abgestimmt ist. Durch den strukturierten Workshop, in dem auch die Vertriebsziele erarbeiteten wurden, sind maßgeschneiderte Kennzahlen ausgewählt worden, durch die die Unternehmensziele sichergestellt werden können.
Aufgrund eines im Unternehmen sinkenden Motivationslevels sowie soziodemografischer Änderungen am Arbeitsmarkt und der wachsenden Problematik eines erkennbaren Fachkräftemangels sah sich die A.M. Personalbereitstellungs GmbH mit der Handlungsnotwendigkeit, hinsichtlich der Implementierung von motivations- und retentionsfördernden Maßnahmen, konfrontiert. Demnach wurde die Idee geboren, ein auf die individuellen Bedürfnisse der A.M. Personalbereitstellungs GmbH angepasstes vertriebliches Leistungsanreizsystem zur Steigerung der MitarbeiterInnenmotivaion und -bindung mittels der Bereitstellung eines entsprechenden Maßnahmenplans zu entwickeln. Im Theorieteil dieser Arbeit wurde als erstes ein theoretische Grundgerüst erstellt. Hier wurden die Eckpfeiler der zu behandelnden Thematiken abgesteckt (z. B.: Arten von Personalbeschaffung, Gender-Unterschiede am Arbeitsmarkt, die theoretischen Ansätze der Personalwirtschaft etc.). Als Ausgangspunkt für sämtliche weiteren Ausführungen wurde die Motivation als primärer Leistungstreiber bestimmt und zahlreiche damit eihergehende Entstehungs- bzw. Beeinflussungstheorien ausgearbeitet. Ausgehend von dieser Motivationsthematik wurden im Anschluss die zwei weiteren Kernthemen, vertriebliche Leistungsanreize und MitarbeiterInnenbindung, hinsichtlich wechselseitiger Beeinflussungsmöglichkeiten abgehandelt und damit zusammenhängende mögliche Systemgestaltungsansätze (klassisch, kundInnenorientiert, Cafeteria-System) dargelegt. Im Praxisteil der Arbeit wurde ein für den Untersuchungsgegenstand passendes Untersuchungsdesign definiert. Nach der externen/internen Analyse der Ist-Situation wurde die Handlungsnotwendigkeit vonseiten der A.M. Personalbereitstellungs GmbH nochmals klar dargelegt. Im Anschluss wurden die aus der empirischen Erhebung ableitbaren Erkenntnisse auf unterschiedlichste Wiese veranschaulicht. Auf Basis dieser Erkenntnisse wurde eine Bewertung von zahlreichen möglichen Anreizmodulen durchgeführt. Diese Module wurden wiederum in eine für die A.M. Personalbereitstellungs GmbH maßgeschneiderte Handlungsempfehlung übernommen. Um einen möglichen, durch das Key-Feature (Cafeteria-System) verursachten, „Wildwuchs“ an unterschiedlichsten Ausgestaltungsformen zu unterbinden, wurde ebenfalls eine entsprechende Vorgabenempfehlungen, basierend auf soziodemografischen Wirkungstendenzen, bereitgestellt.
The B4B Solutions GmbH operates as a consulting firm in the IT industry. It is specialized in cloud-based SAP software solutions. Together with their customers, employees of B4B conjointly customize and implement the SAP solutions to update the customers’ IT systems. Among its customers reaching from small to large companies, there are also IFRS-applicants. Since the IASB has issued a new revenue recognition standard – IFRS 15 “Revenue from contracts with customers”, the new provisions have to be considered in the relevant implementation projects as well. The preparation of a guideline illustrating the new revenue recognition aims to support the consultants when it comes to the implementation of IFRS projects. This paper serves as a basis for the guideline and covers an analysis of the new revenue recognition standard, briefly reviews legacy-standards and assesses the impacts on annual financial statements. The findings are based on specialist literature and the exemplary analysis of contracts with customers. The new regulations on revenue recognition have different effects on various sectors and induce companies to thoroughly analyze their contracts with customers to recognize revenue using the new five-step model. The new standard leads to the harmonization of previous standards and interpretations and offers detailed guidance, whereas legacy-standards failed to assist IFRS-applicants. Nevertheless, accounting and billing now diverge, resulting in a shift of revenues to other periods. What is more, is that IFRS 15 requires more detailed quantitative as well as qualitative disclosure. The five-step model offers reliable guidance for IFRS-applicants. Also, the density of provisions improved. However, there is still a margin of discretion. In particular, the estimation of stand-alone selling prices of variable components within a contract might lead to differences between the billing and the recognition of revenues. The increased disclosure requirements request more detailed information than previously. Thus, the system- and process landscape needs to be adapted, resulting in one-time costs. It is questionable if there will be a sustainable benefit for the users of financial statements.
Diese wissenschaftliche Arbeit, welche für die Fachhochschule CAMPUS 02 durchgeführt wird, setzt sich mit der automatisierten und softwaregestützten Antennen-Anpassung im NFC-Bereich mithilfe eines Vektor-Netzwerk-Analysators (VNA) auseinander. Das Programm soll zur einfachen und automatisierten Antennenanpassung ohne tieferes Fachwissen des Benutzers fähig sein und etwaige Projekte im Bereich Forschung und Entwicklung an der Fachhochschule CAMPUS 02 vereinfachen. Ziel ist, die Antennen-Anpassung als Prozess abbilden zu können und alle nötigen Schritte mithilfe eines günstigen VNAs und der Software umzusetzen mit so wenig Benutzerinteraktionen wie nötig. Das fertige System soll von der Genauigkeit der Messung nahe der eines um ein vielfaches teureren VNAs liegen. Die Funktionsweisen eines NFC-Systems und dessen Antenne wird analysiert und alle wichtigen Punkte für die Anpassung einer Antenne ermittelt. Aufbauend auf den gesammelten Informationen werden Methoden zur Ermittlung der Antennenparameter und deren Anpassungsschaltung erörtert und evaluiert. Die benötigten Maßnahmen zur Umsetzung der Methoden wie etwaige Messungen und Berechnungen mithilfe des VNAs werden aufgeführt und analysiert. Für die Antennenanpassung wird ein C# Programm geschrieben, welches die Messungen und Kalibrationen am VNA durchführt und mit wenigen Benutzereingaben visuell und tabellarisch alle benötigten Daten für die Antennenanpassung liefert.
Beehive Tracker
(2019)
Bees are arguably the single-most important pollinator to agriculture, although the honeybee stock has decreased by almost 50% in the last decade. Most of the commercially operated beehives are placed in remote areas, where theft of those beehives is a huge issue for beekeepers. This thesis examines the optimal conditions a beehive needs to survive and to produce honey, as well as how to measure those conditions and how to keep track of a beehive. Therefore, a prototype device was built to be placed inside the beehive to measure temperature, humidity, weight, and the GPS position. A battery system was developed to keep the device powered for up to six months. To be able to monitor those devices remotely a mobile connection to a cloud server was established. This cloud server provides a graphical user interface for easy access to the uploaded data of the beehive, and raises alarms if theft is detected.
LOGICDATA entwickelt APIs (Application Programming Interfaces) für die marktführenden Smartdevice Plattformen zur Steuerung von mechatronischen Systemen in der Möbelindustrie. Die Funktionalität dieser APIs muss durch Tests mit verschiedenen Eingabeparametern überprüft werden. Änderungen in der Implementierung der APIs während der Entwicklungs- und Testphase führen zu Wartungsaufwand des Testsystems, welcher manuell durchgeführt werden muss. Das führt zu längeren Testdurchlaufzeiten und zu Verzögerungen in der Freigabe-Phase des Projekts. Ziel dieser Masterarbeit ist es, anfallende Wartungstätigkeiten bei API-Änderungen während der Testphase zu automatisieren, um die Entwicklungszeit des Testsystems zu reduzieren. Zu diesem Zweck soll eine Codegenerierungsmethode ausgewählt werden, mit der Code in verschiedenen Programmiersprachen und Plattformen generiert werden kann. Dafür werden verschiedene Codegenerierungsmethoden hinsichtlich ihrer Eignung für diese Aufgabenstellung miteinander verglichen und eine Wahl getroffen. Aufbauend auf diese Entscheidung wird eine Softwarearchitektur eines Testsystems mit automatischer Codegenerierung entworfen. Nach Festlegung dieser werden der Codegenerator und die Softwarekomponenten des Testsystems entwickelt und die Vorteile hinsichtlich Entwicklungs-, Wartungsaufwand und Testdurchlaufzeit aufgezeigt. Tests mit den ersten implementierten APIs haben gezeigt, dass der Einsatz der automatischen Codegenerierung zu einer höheren Codeflexibilität und niedrigerem Entwicklungsaufwand führt. Das Testsystem kann für die Verifikation zukünftiger API-Releases eingesetzt werden.
Das Ziel der vorliegenden Masterarbeit ist es, einen beim Unternehmen AVL List GmbH bis dato manuell durchgeführten Wareneingangskontrollprozess von Batteriezellen zu optimieren. Dazu werden zuerst grundlegende Informationen rund um das Thema Lithium-Ionen-Batterien vorgestellt, die wichtig für den Kontrollprozess sind. Dabei wird vor allem detailliert auf die unterschiedlichen technischen Kriterien wie z. B. Zellspannung, Energiedichte, Zellalterung und Sicherheit eingegangen. Des Weiteren werden die in der Literatur beschriebenen verschiedenen Methoden zur Prozessoptimierung im Supply Chain Management näher erläutert, um daraus die weitere Vorgehensweise bei der Prozessanalyse zu definieren. Im nächsten Schritt wird dann der aktuelle Prozess analysiert und beschrieben, um auf Basis dessen Ablauf eine mögliche Definition für einen automatisierten Prozess zu generieren. Anhand dieser Analyse stellt sich heraus, dass derzeit die Dimensionsmessung in einem unzureichenden Umfang durchgeführt wird. Deshalb ist es notwendig, ausgewählte Methoden zur Geometrievermessung im Detail zu beschreiben. Dazu zählen grundlegende Begriffe der Messtechnik, sowie verschiedene taktile und optische Verfahren. Anhand der Ergebnisse aus der Prozessanalyse und der Beschreibung der Messmethoden werden drei Konzepte erstellt, die passende Lösungen für den Wareneingangsprozess sein können – zusätzlich wird ein Testaufbau erstellt, um erste Ergebnisse aus der Praxis zu sammeln. Nach genauerer Betrachtung der Konzepte kann ein halb-automatisierter Prozess mit einem Lichtschnittverfahren als optimale Lösung definiert werden. Mit dieser Lösung kann die AVL die Kundenanforderungen in puncto Qualität, Sicherheit und Zeit erfüllen. Zudem ist dieser Messaufbau auch für andere Anwendungen einsetzbar.
Diese Masterarbeit untersucht, wie Wasserstoff zur Lösung eines der letzten verbleibenden Probleme der Energiewende beitragen kann. Die verstärkte Nutzung von volatilen erneuerbaren Energiequellen stellt für die konventionelle Energieversorgungsstruktur eine große Herausforderung dar. Eine Versorgung mit ausschließlich erneuerbaren Energien wird nur möglich sein, wenn man eine geeignete und wirtschaftlich vertretbare Methode findet, die unstetig erzeugte Energie sowohl kurz- als auch langfristig speichern kann. Um Eigenheime mit der eigenen Photovoltaikanlage auch nachts ohne Sonneneinstrahlung versorgen zu können, benötigt es geeignete Speicherlösungen. Derzeit am Markt erhältliche Batteriesysteme sind aufgrund ihrer hohen spezifischen Kosten nicht für die Langzeitspeicherung geeignet. Beim energiewirtschaftlichen Konzept Power-to-gas wird aus überschüssigem Solarstrom mittels Elektrolyse Wasserstoff hergestellt. Dieser kann unter hohem Druck über lange Zeiträume gespeichert werden. Bei Bedarf wird die im Gas gespeicherte chemische Energie wieder in elektrische Energie umgewandelt. Mit den dafür notwendigen Technologien setzt sich diese Masterarbeit auseinander. Im ersten Schritt werden die Grundlagen der konventionellen Energieversorgung und der erneuerbaren Energien, sowie die physikalischen und physiologischen Eigenschaften von Wasserstoff erläutert. Neben unterschiedlichen Wasserstoffherstellungsverfahren und Möglichkeiten für dessen Speicherung, werden Technologien zur Rückverstromung auf deren Tauglichkeit für den Einsatz in einem Speichersystem untersucht. Basierend auf den gewonnenen Erkenntnissen, wird schließlich ein Konzept eines Speichersystems auf Wasserstoffbasis vorgestellt. Des Weiteren werden anhand einer Simulation mit realen Solarstrahlungsdaten, sowie typischer Haushaltslastverläufen, das Verhalten und die Auswirkungen unterschiedlicher Systemkonfigurationen auf Kenngrößen wie Autarkiegrad und Eigenverbrauchsanteil näher untersucht. Abschließend geben Kalkulationen Aufschluss darüber, ob ein wirtschaftlicher Betrieb zu erwarten ist.
Die Voestalpine Böhler Edelstahl GmbH & Co KG mit ihrem Stammwerk in Kapfenberg gehört weltweit zu den bedeutendsten Anbietern von Werkzeugstählen, Schnellarbeitsstählen und Sonderwerkstoffen. Mehr als 200 Stahlmarken, eingesetzt in den verschiedensten Bereichen wie in der Luftfahrttechnik und Energiegewinnung, fordern hochbeanspruchbare Spezialstähle. Höchstpräziser Edelstahl gewinnt heutzutage vermehrt an Bedeutung, so auch die Hilfsaggregate der Voestalpine Böhler Edelstahl GmbH & Co KG, wie zum Beispiel in der Schmiedelinie, die durch kontinuierliche Überwachung der Anlagenprozesse an Bedeutung zunehmen. Besonders bei alttechnologischen Anlagen besteht ein Verbesserungspotential in Hinsicht auf Instandhaltungskosten und Energieverbräuche. Die Thermoprozessanlage fungiert in der Schmiedelinie zur Erwärmung von Stählen, welche in weiterer Folge im Produktionsfluss geschmiedet, gepresst oder gewalzt werden. Das Ziel dieser Masterarbeit ist es, eine Energie- und Kosteneinsparung durch Eingriff in den Verbrennungsprozess mittels Regelungsänderung der Luftvorwärmkompensation auszuarbeiten. Die Umsetzung findet an einem Herdwagenofen mit Warmluftbrenner statt. Die Verbrennung sollte mittels Sauerstoffmessung im Ofenraum dauerhaft überwacht werden und die Stellung der Luftklappe am Brenner für den gewünschten Sollwert eingreifen. Das Resultat an der erdgasbeheizten industriellen Thermoprozessanlage ist eine Senkung des Energieverbrauches und Verbesserung des Verbrennungsprozesses.
In Schaltstellen und Trafostationen mit Fernwirkanbindung, bei welchen keine wirtschaftliche Möglichkeit besteht eine kabelgebundene Datenübertragung umzusetzen, kommt eine drahtlose Datenübertragung zum Einsatz. Zielsetzung ist es, eine geeignete Funktechnologie zu finden, welche von der Energie Steiermark selbst betrieben und instandgehalten werden kann ohne von einem öffentlichen Mobilfunknetz abhängig zu sein. Nach dem Vergleich diverser Funktechnologien und der Auswahl einer geeigneten, wurden Tests durchgeführt um die Praxistauglichkeit dieser Funktechnologie zu ermitteln. In den Tests wurde unter anderem auf Gesichtspunkte wie Paketumlaufzeiten, Datendurchsatz und Konsistenz der übertragenen Daten geachtet. Neben dem Test der Praxistauglichkeit sind während der Testphase ebenfalls verschiedene Einstellungen für eine stabile Datenübertragung ermittelt und getestet worden. Die Praxistests und Datenanalysen haben gezeigt, dass die Anforderungen, welche die Energie Steiermark an eine drahtlose Datenübertragung stellt, erfüllt wurden. Wenn Smart Meter auch mit dieser Technologie implementiert werden müssen gegebenenfalls die Einstellungen der Datenübertragung angepasst werden.
Automatisierung in der Transformatorenproduktion ist aufgrund der individuellen Fertigung eine große Herausforderung, jedoch für den nachhaltigen Unternehmenserfolg unumgänglich. Deshalb wird punktuell in jenen Bereichen automatisiert, die sich als geeignet erweisen. Die Systemanforderungen sind hierbei vor allem der Umgang mit einer großen Bandbreite an verschiedenen Bauformen. Diese wissenschaftliche Arbeit befasst sich mit der Automatisierung der Aktivteil-Vormessung von Transformatoren. Besonders wird auf die Realisierung einer autonomen Umschaltvorrichtung für den Stufenschalter während des Prüfprozesses eingegangen. Dafür wird zuerst die Funktionsweise und der Aufbau der verschiedenen Stufenschalter-Bauformen behandelt und mittels Versuche deren benötigter Kraft- und Momentaufwand für eine Schalthandlung erfasst. Daraus folgend wird die geeignete Antriebstechnik und Sensorik eruiert und verschiedene Konstruktionskonzepte der Umschaltvorrichtung evaluiert. Das geeignetste Konzept wird umgesetzt, über eine Simatic S7 SPS gesteuert und in einem Versuchsaufbau getestet. Mit dem dadurch entwickelten und optimierten GRAPH-Programm ist der Prototyp in der Lage, verschiedenste Bauformen von Stufenschalter zu bedienen. Ebenfalls Teil dieser Arbeit ist die Konzeptionierung einer automatisierungs- und normgerechten Prüfzelle, um Messungen ohne Anwesenheit von Personal durchführen zu können. Die Ergebnisse dieser Versuche helfen bei der Verbesserung von Hard- und Software und zeigen Herausforderungen und Lösungswege für die Implementierung in die Fertigungslinie auf.
Die vorliegende Masterarbeit beschäftigt sich mit der Konzeptionierung eines geteilten und begehbaren Pooldecks, und beantwortet folgende Fragen: Welches Konzept eignet sich am besten, um ein geteiltes, begehbares Pooldeck, das als Terrasse fungieren soll, zu realisieren? Wie sieht eine konkrete Umsetzung des gewählten Konzeptes aus? Gegliedert ist die Arbeit in einen theoretischen und praktischen Teil. Der Theorieteil beschäftigt sich mit schienengeführten Systemen und der Korrosionsbeständigkeit von Metallen im Außenbereich, insbesondere für den Einsatz in der Nähe von Salzwasser. Der praktische Teil zeigt die Konzeptionierung nach der VDI 2221 Richtlinie, welche allgemein den Vorgang einer Produktentwicklung beschreibt. Aus dem Konzept entsteht eine konkrete Konstruktion dieser Abdeckung für einen vorgegebenen Pool. Die Erkenntnisse dieser Arbeit sind Lösungsansätze für geeignete Führungssysteme und Materialien, sowie eine neue Variante zur Abdeckung von Schwimmbädern.
Die vorliegende Arbeit gibt einen Einblick in die Anwendung maschinellen Lernens zur Informationsextraktion aus natürlichsprachlichem Text. Das Ziel besteht darin, TechnikerInnen bei der Angebotslegung für Transformatoren zu unterstützen, indem Algorithmen Routineaufgaben übernehmen, und damit mehr Zeit für die Bearbeitung neuer oder besonderer Anforderungen zu schaffen. Hierzu werden einführend Fachbegriffe erklärt, um einen Überblick über das Fachgebiet zu geben. Im folgenden Theorieteil werden die Grundlagen beginnend bei relativer Wahrscheinlichkeit über endliche Automaten bis hin zu neuronalen Netzen anhand von Beispielen bearbeitet. Danach wurde im praktischen Teil der Arbeit anhand prototypischer Umsetzungen die Eignung einzelner Methoden des maschinellen Lernens getestet. Um den Entwicklungen, die im Jahr 2019 im Bereich Sprachverständnis stattfanden, Rechnung zu tragen, wurden im praktischen Teil ebenfalls Methoden des Transfer Learnings eingeführt und am Beispiel ausprobiert. Neben diesen wurden zudem softwaretechnische Aspekte, wie die Visualisierung der Daten in einer Webapplikation, prototypisch umgesetzt . Abschließend wird ein Weg aufgezeigt, der auf Basis der aus den prototypischen Umsetzungen gewonnenen Erfahrung empfehlenswert erscheint.
Die Firma Kristl, Seibt & Co GmbH entwickelt und produziert Prüfstände im Bereich der Fahrzeugtechnik. In den vergangenen Jahren wurden verschiedene standardisierte Softwarelösungen für den Betrieb von Motoren-, Antriebsstrang- und Rollenprüfständen entwickelt. Bis dato wurde noch kein standardisiertes Softwaresystem entwickelt, das die weltweiten Prozesse der Messung von Abgasemissionen von Fahrzeugen beinhaltet. Das Hauptziel dieser Arbeit ist, ein strukturiertes und generalisiertes Softwaresystem zu entwickeln, welches die weltweiten Testprozeduren im Bereich der Abgasmessung von Fahrzeugen abdeckt. Zunächst werden dazu die Grundlangen eines Abgasrollenprüfstands analysiert. Darüber hinaus, werden Methoden der Softwareentwicklung zur Strukturierung und Darstellung komplexer Softwaresysteme erarbeitet. Danach werden bestehende Softwaresysteme im Bereich der Abgasmessung von Fahrzeugen evaluiert. Nach diesen Untersuchungen wird eine Softwarearchitektur konzipiert, die eine generalisierte Struktur für die Messgeräte, Fahrzyklen und das Verhalten des gesamten Prüfzyklus beinhaltet. Ausgehend davon wird die modellierte Softwarearchitektur in das Prüfstandsautomatisierungssystem Tornado der Firma Kristl, Seibt & Co GmbH implementiert und getestet. Im Vergleich zu den bestehenden Projekten können durch die erarbeitete Vorgehensmethodik nicht nur objektbasierte Strukturen modelliert, sondern auch generische Programmabläufe entwickelt werden. Somit entsteht ein Softwaremodul, das hinsichtlich Erweiterbarkeit, Flexibilität und Testbarkeit neue Maßstäbe setzt.
Die vorliegende Masterarbeit befasst sich mit der Thematik Wassereinsatz an Waschbecken und einer innovativen Möglichkeit den dazu gehörigen Wassereinsatz zu reduzieren, gemeint ist damit die Vermeidung des ungenützten Ablaufenlassens des erkalteten Rohrleitungsinhalts einer Warmwasserleitung bzw. der Trinkwasserleitung heiß. Die Arbeit ist gegliedert in drei Abschnitte. Im ersten Teil werden die derzeitigen technischen Situationen in herkömmlichen Einfamilien- bzw. Mehrparteienwohnhäuser evaluiert und anhand einer Umfrage erfasst. Mit Hilfe der Umfrage soll die Verbesserungswürdigkeit von privaten Wasserkonditionierungen aufgezeigt und auf die damit verbundene Wasserverschwendung aufmerksam gemacht werden. Im zweiten Teil werden die dazu notwendigen Theorieinhalte in Bezug auf Strömungslehre und Thermodynamik angeführt, welche für die korrekte Nachbildung der Realität des Wärmeübergangs benötigt werden. Die Berechnungen des Wärmeübergangs bzw. Wärmeverlusts in einer herkömmlichen Trinkwasserinstallation dienen als Abgleich für die Auslegung der benötigten Komponenten des Prüfstands, welcher in weiterer Folge die Umgebungszustände simulieren soll. Der letzte Abschnitt befasst sich mit der Idee das zwischenzeitlich abgekühlte Wasser einer Trinkwasserleitung, für die spätere Nutzung zur Beimischung, zwischen zu speichern. Der Prüfstand ist dazu in zwei Teile gegliedert: Zum einen wird die Wassertestmedienversorgung und die Umgebung realisiert, damit nach heutigen Trinkwasser Installationsstandard getestet werden kann. Zum anderen sollen mit Hilfe des Prüfstands Verbesserungen entwickelt und erforscht werden, um das Trinkwasser effizienter zu nutzen.
Reifen bilden die einzige Verbindung zwischen Fahrzeugen und der Fahrbahn ab. Aus diesem Grund sind sie eine der wichtigsten Grundlagen für ein sicheres Fahren. Hierfür müssen die Reifen jedoch einen den Vorgaben entsprechenden Luftdruck vorweisen. Die Überwachung des Luftdruckes passiert in modernen Fahrzeugen mit Hilfe von Reifendruckkontrollsystemen. Bevor diese Systeme jedoch in einem Fahrzeug zur Anwendung kommen, müssen sie durch den Einsatz und die Unterstützung von Prüfständen abgesichert werden. In dieser Masterarbeit wird ein Prototyp für einen Reifendruckkontroll-Prüfstand entwickelt, wobei ein eigenständiges und neues Konzept für den Prüfstand erstellt und umgesetzt wird. Es wird gezeigt, wie eine Regelung für den Druck und die Temperatur innerhalb der Druckkammer realisiert werden kann. Zudem werden die Reifendruckkontrollsensoren durch einen Motor in Bewegung versetzt. Anhand der Verwirklichung einer grafischen Oberfläche können Druck, Temperatur und die Drehzahl am Prüfstand variiert werden. Tests am Prototyp zeigen, dass der Prüfstand alle erforderlichen Parameter eines Reifendruckkontrollsystems nahezu automatisiert stimulieren kann. Durch den Einsatz einer Antenne ist die Funkübertragung trotz des Faraday´schen Käfigs der Druckkammer sichergestellt. Es wird aufgezeigt, dass es dennoch Verbesserungsbedarf gibt, bevor der Prüfstand für Validierungen von Reifendruckkontrollsystemen eingesetzt werden kann.
Als Virtual Reality wird eine Computertechnologie von künstlich geschaffenen Welten, Produkten, Anwendungen, Fähigkeiten und Fertigkeiten bezeichnet. Sie ermöglicht dem Anwender sich in eine virtuelle Welt mit der Hilfe von Virtual Reality-Brillen zu teleportieren, in der er sich nahezu frei darin bewegen kann. Der Anwender nimmt durch die Virtual-Reality Brille seine reale Umgebung nicht mehr wahr und taucht in eine unglaublich real erscheinende immersive virtuelle Welt ein. Die FH CAMPUS 02 plant ihr gesamtes Elektro-Energietechnik-Labor als virtuellen digitalen Zwilling abzubilden. Diese Abbildung soll dann das Gleiche ausführen, wie das Labor in der realen Welt dazu in der Lage ist. Das Ziel dieser Masterarbeit ist es, eine Schnittstelle über zwei Hochsprachen in C++ und C# zu entwickeln die es dem Anwender ermöglicht zwischen der realen und der virtuellen Welt wechselweise zu kommunizieren. Das Ergebnis dieser Masterarbeit ist das Programmieren einer seriellen Schnittstelle die ein Arduino Board, mit einem angeschlossenen Sensor, der die Luftfeuchtigkeit und Temperatur zyklisch ermittelt und die Werte über einen Mikrocontroller speichert, mit Unity 3D 2018 sowie Modbus-TCP verbindet. In dieser Spiele-Engine sowie über Modbus-TCP werden die Ergebnisse in analoger und digitaler Form virtuell ausgegeben und visualisiert. Über eine einfache Schaltung werden, über ein selbst hergestelltes LEDBoard für Demonstrations- und Testzwecke, die Abläufe dargestellt. Die größte Herausforderung der Umsetzung dieser seriellen Schnittstelle stellt dabei dar, dass es dafür bisher keine wissenschaftlichen Ansätze gibt.
The semiconductor industry is a dynamic, fast-moving branch with the overall aim to facilitate people’s lives. Therefore many inventions and innovations have arisen by this industry. After proving a technology’s efficacy in one market, additional markets and applications are identified. Hence, managers of semiconductor companies have to think about an appropriate market-entry strategy. Regularly, marketentries fail because of missing structures or defined procedures. The current master’s thesis deals with designing a procedure model regarding market-entry strategies for the semiconductor industry. Firstly, the conceptual basis is outlined to define important topics within the thesis. After that, an intense literature review covers the semiconductor industry with its characteristics and generic market-entry strategies. With the insights and results of the literature review, a theoretical procedure model for market-entry strategies is designed. The model is validated and proved through a workshop of NXP Semiconductors on a real targeted market. Moreover, an in-depth study incorporating interviews with experts on NXP Semiconductors and other semiconductor companies verifies and requests feedback with respect to the newly designed procedure model. Finally, the model is adapted and recommendations for implementing it are made. The semiconductor industry is a complex and very dynamic branch with specific characteristics and requirements, properties which a procedure model for market-entry strategies must consider. This thesis develops and designs a procedure model to offer an approach to that effect, with final recommendations for an implementation at NXP Semiconductors.
Die Buchhandelsbranche ist eine der ältesten Branchen überhaupt und hat es geschafft, sich über Jahrhunderte hinweg immer wieder zu modernisieren und durch innovative Ideen ständig weiterzuentwickeln. Zuletzt machte sich der Innovationsgeist dieser Branche und des Literaturmarktes durch die Einführung von E-Books, dem Online-Buchhandel und neuen Publikationsmethoden bemerkbar. Von den genannten Erneuerungen profitieren vor allem im Eigenverlag tätige Autorinnen und Autoren, da diese erstmals in der Lage sind, auch ohne Verlage im Hintergrund, Bücher unter wirtschaftlich günstigen Bedingungen, im eigenen Namen zu veröffentlichen und zu vertreiben. Viele Autorinnen und Autoren überschätzen sich dabei, selbstständig die Erstellung, Vermarktung und den Vertrieb der eigenen Bücher abzuwickeln und voranzutreiben. Diese Situation wurde als Anlass genommen, um sich in dieser Arbeit näher mit dem Literaturmarkt und der Geschäftsmodellentwicklung in diesem Bereich auseinanderzusetzen. Ziel der vorliegenden Arbeit war es unter anderem ein Vorgehensmodell zur Geschäftsmodellentwicklung im Bereich des Eigenverlags zu entwickeln, welches Eigenverlegerinnen und Eigenverlegern dabei helfen soll, alle notwendigen Schritte zu berücksichtigen, um die Vermarktung und den Vertrieb der eigenen Werke zu planen und erfolgreich zu realisieren. Im theoretischen Teil dieser Arbeit wurden die Grundlagen erarbeitet, welche notwendig sind, um einen Überblick über den Literaturmarkt und über Geschäftsmodellansätze zu bekommen. Besondere Aufmerksamkeit galt den Veränderungen und Trends am Literaturmarkt, sowie bestehenden Geschäftsmodellen am Markt, wie beispielsweise jene von Verlagen, Online-Buchhändlern usw. Aus den erarbeiteten Erkenntnissen wurde ein 7-schrittiges Vorgehensmodell entwickelt, welches die relevanten Schritte einer Selbstverlegerin bzw. eines Selbstverlegers widerspiegelt, die notwendig sind, um ein Geschäftsmodell im Bereich des Eigenverlags zu entwickeln und darauf aufbauend die Vermarktung und den Vertrieb der eigenen Werke voranzutreiben. Im Praxisteil dieser Arbeit wurde das entwickelte Vorgehensmodell am Beispiel eines Kinderbuchprojektes einer Jungautorin durchgeführt und ein Geschäftsmodell dafür entwickelt. Dabei fanden die verschiedensten Werkzeuge und Methoden zur Analyse von Wettbewerbern, Kundenbedürfnissen usw. Anwendung. Neben Interviews und Workshops mit den Zielgruppen, wurde auch eine Umfrage zur Identifikation von Kundenbedürfnissen durchgeführt. Die angewandten Methoden gaben vor allem Aufschluss darüber, welche Produktattribute den Kundinnen und Kunden wichtig sind. Demnach sind eine professionelle Gestaltung und kindgerechte Aufbereitung der Inhalte ein absolutes Muss-Kriterium für ein Kinderbuch. Begeistert zeigen sich die Kundinnen und Kunden über Zusatzprodukte, Kostenlose Extras, die Bereitstellung verschiedener Produktformen wie z.B. einer Printversion und eines E-Books, sowie, wenn ein Kinderbuch dem Zeitgeist entspricht und als besonderes Feature interaktive Inhalte besitzt. Nach der überwiegenden Meinung von Expertinnen und Experten bietet ein derartiges Vorgehensmodell eine enorme Arbeitserleichterung und Anhaltspunkte für die zielgerichtete Geschäftsmodellentwicklung. Es ermöglicht Autorinnen und Autoren einen generellen Überblick darüber, welche Aufgaben diese zu erledigen haben bevor sie in den Markt eintreten und ihre Produkte vertreiben.
Geboren zwischen 1980 und 1995 beeinflusst die demografische Kohorte, die besser als Generation Y bekannt ist, jeden täglichen Aspekt der gegenwärtigen Gesellschaft. Da sie den künftigen Arbeitsmarkt mittel bis langfristig dominieren werden, müssen die Arbeitgeber auf eine sich wandelnde gesellschaftliche Zusammensetzung einstellen und allen voran auf die steigenden Anforderungen dieser Generation reagieren. Das erste Ziel dieser Masterarbeit ist es, die wesentlichen Komponenten für die Mitarbeiterbindung zu identifizieren. Zweitens soll geklärt werden, ob Corporate Social Responsibility einen positiven Beitrag zur Beurteilung der Arbeitgeberattraktivität leisten kann oder nicht. Zur Erreichung dieser Ziele wurde relevante Literatur in den einschlägigen Bereichen analysiert und sowohl durch quantitative als auch qualitative Methoden gestützt um weitere Erkenntnisse generieren und gewinnen zu können. Als Ergebnis lässt sich festhalten, dass mehr 70% der Teilnehmer mit dem Thema Corporate Social Responsibility vertraut sind. Im Allgemeinen wurde eine Vielzahl von Faktoren identifiziert welche die Attraktivität des Arbeitgebers beeinflussen. Zunächst wird eine stärkere soziale Bindung zwischen Arbeitgebern und Arbeitnehmern gebildet, wenn soziale Aktivitäten seitens der Unternehmen gefördert werden. Weiters werden Flexibilität und die Ermöglichung einer ausgeglichenen Work Life Balance als zusätzliche Möglichkeit gesehen, einen positiven Einfluss zu nehmen. Letztendlich strebt die Generation Y nach einer zielorientierten Führung, Kreativität in der Ausübung anspruchsvoller Tätigkeiten aber auch nach der Möglichkeit zur Weiterbildung und persönlichen Entwicklung. Zusammengefasst ließ sich feststellen, dass soziale Tätigkeiten und die Übernahme gesellschaftlicher Verantwortung einen signifikanten Einfluss auf die Attraktivität des Arbeitgebers nimmt, was schließlich und letztendlich zu einer besseren Mitarbeiterbindung der Generation Y führt.
Diese Arbeit befasst sich mit dem Einsatz des Internets der Dinge (IoT) im Messtechnikbereich. Das Ziel dieser Arbeit ist die Feststellung der Aspekte, die für den IoT-Einsatz in der Entwicklung von Produkten bzw. Dienstleistungen zu beachten sind. Diese Arbeit wird wichtige Konzepte erläutern, um das Internet der Dinge anzuwenden, sowie die verschiedenen Arten von Technologien erklären, die im IoT verwendet werden und die Auswirkungen des IoT-Einsatzes auf Dienstleistungen und Produktion skizzieren. Es ist auch wichtig, die Risiken eines solchen IoT- Einsatzes und die Maßnahmen dagegen zu erläutern. Zum Schluss werden die wichtigsten Aspekte des IoT- Einsatzes und deren Auswirkung auf die Weiterentwicklung bzw. Neuentwicklung von Produkten und Diensten dargestellt. Die Forschungsfrage dieser Arbeit ist: „Welche Aspekte entscheiden über den Einsatz von IoT im Bereich der Messtechnik?“ Um die Forschungsfrage beantworten zu können, wurden Interviews und Umfragen mit den Entwicklern durchgeführt, die in der Firma Messtechnik GmbH & CO KG arbeiten. So soll herausgefunden werden, wie das Vorwissen der Entwickler über die angewendeten Technologien bei einem IoT- Einsatz sein sollte. Darüber hinaus wurde eine Umfrage unter Kunden des Unternehmens durchgeführt, um die Auswirkungen von IoT-Anwendungen auf ihren Energieverbrauch oder Wasserverbrauch zu ermitteln. Zusätzlich sollte die Flexibilität der Zusammenarbeit mit den Kunden anhand der entwickelten/vorhandenen Produkte/Dienste oder neuer Produkte/Dienste des Unternehmens erfasst werden. Die Antwort wird darin bestehen, diese Umfragen und Interviews zu analysieren und die Ergebnisse in Tabellen und Diagrammen darzustellen. Schließlich wird klar, welche Aspekte beim Einsatz und der Anwendung des IoT auf die Messtechnik-Branche, wie z.B. Qualität, Dienstleistungserweiterung, Risikominderung und Kosten überwiegen.
Agile Entwicklungsmethoden haben schon seit vielen Jahren ihren Einsatz in der Wirtschaft gefunden. Unternehmen haben den Bedarf von solchen agilen Entwicklungsprozessen entdeckt und haben schnelle Maßnahmen getroffen, um weiter am Markt zu existieren und die Kundenwünsche mit Hilfe von agilen Prozessen zu erfüllen. Jedoch gibt es einen wesentlichen Faktor, der alle agilen Entwicklungsprozesse betrifft, dieser Faktor ist die Zeit. Die Zeit spielt eine wesentliche Rolle für alle Auftraggeber und Auftragnehmer. Unter den agilen Entwicklungsprozessen gibt es zwei unterschiedliche Ansätze, timeboxed und non-timeboxed. Da stellt sich die interessante Frage: „Welche Auswahlkriterien sind entscheidend für agile Timeboxed und Nontimeboxed Ansätze?“, mit der sich diese Arbeit beschäftigt. Aufgrund dessen, dass es in der vorhandenen Literatur kaum Antworten auf diese Fragestellung gibt, wurden im Rahmen dieser Masterarbeit mithilfe der qualitativen Inhaltsanalyse „Interview“, einige Experten Interviews durchgeführt, um diese Frage zu beantworten. Die Ergebnisse dieser Arbeit stellen einen Software-Manager einige Auswahlkriterien zur Verfügung, anhand dessen entschieden werden kann, ob man einen Timeboxing oder einen Non-Timeboxing Ansatz bevorzugt.
In zukunftsgerichteten Klein- und Mittelunternehmen in Österreich spielt das Thema Digitalisierung eine große Rolle. Die Digitalisierung wird als Wandel von Technologien, Prozessen und Arbeitsweisen sowie als Vernetzung von Dingen und Menschen gesehen. Dieser Wandel spiegelt sich in der Weiterentwicklung und der fortschreitenden Schnelligkeit wider. In österreichischen Klein- und Mittelunternehmen (KMU) besteht in Bezug auf den Digitalisierungsgrad noch Aufholbedarf, auch in jenen der IT-Dienstleistungsbranche. Im Unternehmensbereich Betrieb und Tätigkeiten, zu dem auch das Taskmanagement gezählt werden kann, ist die Digitalisierung am wenigsten fortgeschritten. Das Taskmanagement beinhaltet die Erfassung, Verwaltung und Steuerung aller Aufgaben eines Unternehmens. Im Digitalisierungszeitalter ist das Ziel, das Taskmanagement mithilfe von elektronischen und Online-Tools zu realisieren. Die Einführung eines solchen Systems stellt ein Unternehmen vor zahlreiche Herausforderungen. Ziel der vorliegenden Forschungsarbeit war es, Handlungsempfehlungen für die Einführung eines Taskmanagementsystems zu erarbeiten. Diese Handlungsempfehlungen sollen KMU der IT-Dienstleistungsbranche bei der Einführung eines solchen Systems unterstützen. Um die Anforderungen, die in der Praxis bestehen, bestmöglich analysieren zu können, wurde die Methodik einer qualitativen Fallstudie in einem ausgewählten KMU der IT-Dienstleistungsbranche angewandt. Der Gegenstand der Fallstudie war die Einführung eines Taskmanagementsystems in den laufenden Betrieb. Aus den gewonnenen Erkenntnissen im Rahmen der Fallstudie konnte abgeleitet werden, dass sich die Handlungsempfehlungen vor allem auf die Bereiche Mitarbeiterinnen und Mitarbeiter, Führungsstile, Prozesse und Schulung beziehen. Die Ergebnisse zeigen, dass nur eine Kombination aus technischer und Managementsicht zu einem erfolgreichen Aufgabenmanagement führen kann und dass eine einseitige Betrachtung nicht sinnvoll ist. Es ist empfehlenswert, die betroffenen Personen möglichst früh in den Projektverlauf miteinzubeziehen, um die unterschiedlichen Führungsstile und Bedürfnisse der verschiedenen Unternehmensbereiche bestmöglich in die Anforderungsdefinition mit aufnehmen zu können. Weiters ist es ratsam, bei der Einführung eines Taskmanagementsystems der Anpassung der Unternehmensprozesse und der regelmäßigen Schulung einen großen Stellenwert beizumessen. Durch dieses Zusammenspiel unter Berücksichtigung der technischen Anforderungen des Digitalisierungsprozesses kann ein funktionierendes Taskmanagement in einem KMU der IT-Dienstleistungsbranche etabliert werden.
Dass durch Social-Media Einkommen generiert werden kann, ist schon lange kein Geheimnis mehr. Vor allem streben viele Nutzer und Nutzerinnen nach passivem Einkommen. In dieser Masterarbeit soll geklärt werden, über welche Wege es möglich ist, passives Einkommen mithilfe der Social-Media zu lukrieren. Dafür werden in einem ersten Schritt die Begriffe Social-Media, Web 2.0 und Content-Creator definiert und erklärt. Danach werden die verschiedenen Social-Media-Plattformen vorgestellt und erläutert. Anschließend werden Marketingkonzepte dargelegt, wobei vor allem auf digitales Marketing eingegangen wird. Des Weiteren wird aufgezeigt, wann Einkommen als aktiv oder als passiv gewertet wird und welche Wege aus der Theorie zu dessen Generierung eingeschlagen werden können. Zusätzlich werden verschiedene Partnerprogramme vorgestellt und es wird dargelegt, wieviel damit verdient werden kann. Im Praxisteil dieser Arbeit wird eine multiple Fallstudie durchgeführt. Um die Untersuchungsobjekte vergleichbar zu machen, wird die Value Proposition Canvas eingesetzt. Es wird aufgezeigt, welche Bereiche in dieser Masterarbeit wie umgesetzt werden. Danach werden die Untersuchungsobjekte ausgewählt und vorgestellt. Zusätzlich werden die Personas kreiert, die als Kunden und Kundinnen den Untersuchungsobjekten gegenübergestellt werden. Anschließend wird die multiple Fallstudie durchgeführt und die Untersuchungsobjekte analysiert. Die Ergebnisse werden zusammengefasst und der Theorie gegenübergestellt. Dabei konnten mehrere Wege zum passiven Einkommen über Social-Media identifiziert werden. Vor allem Affiliate Links, YouTube, Twitch, Patreon, Merch und Content, der digital vervielfältigt werden kann, wurden in der Praxis von den Untersuchungsobjekten eingesetzt, um passives Einkommen zu generieren.
Diese Arbeit befasst sich mit dem Vergleich von unterschiedlichen Machine Learning Verfahren zur Ermittlung ähnlicher Bilder im Kontext einer Suche nach ähnlichen Produkten in E-Commerce Lösungen. Die Motivation liegt dabei in der Evaluierung möglicher Verfahren für den Einsatz in einem Produktivsystem. Das Ziel ist es, das geeignetste Verfahren bezogen auf einen spezifischen Anwendungsfall zu ermitteln. Konkret werden drei Verfahren in einer Basisvariante umgesetzt und mit geeigneten Metriken evaluiert. Ein bestehendes Datenset an realen Produktbildern wird zu Evaluierungszwecken verwendet. Kein Ziel dieser Arbeit ist es, die jeweiligen Verfahren soweit zu optimieren, sodass diese die jeweils bestmöglichen Ergebnisse zurückliefern. Auf Basis eines Experiments werden die zuvor recherchierten Verfahren anhand des Anwendungsfalles einer Suchfunktionalität nach ähnlichen Produkten evaluiert. Es kommen dabei unterschiedliche Evaluierungsmetriken zum Einsatz. Als Hauptevaluierungsmetrik der Verfahren wird die Mean Average Precision@K verwendet. Transfer Learning mit einem vortrainierten VGG16 Modell und darauf angewandtes FineTuning liefert in Bezug auf diese Metrik die besten Ergebnisse. Dahinter landet das Autoencoder Verfahren. Das Siamese Network Verfahren liefert im direkten Vergleich mit den beiden anderen die schlechtesten Ergebnisse. Dennoch eignen sich alle drei Verfahren für den untersuchten Anwendungsfall, sodass im Schnitt mindestens 50 Prozent der Suchergebnisse innerhalb der top fünf Ergebnisse relevant sind. Für einen potenziellen Einsatz in einer Produktivumgebung wäre es trotzdem erforderlich und empfehlenswert, weitere Optimierungen der dahinterliegenden Modelle vorzunehmen. Passend zur Hypothese haben die Experimente bestätigt, dass Transfer Learning trainiert mit den Bildern aus dem gegebenen Datenset bessere Ergebnisse ermöglichen kann. Weitere Forschungstätigkeiten umfassen die Optimierung der Verfahren und des Datensets sowie die Evaluierung weiterer, alternativer Verfahren beziehungsweise Kombinationen davon, die nicht Teil der vorliegenden Arbeit sind.
Das Unternehmen XAL GmbH entwickelt, produziert und vertreibt Leuchtensysteme, die aus einem Aluminiumstrangpressprofil als Leuchtengehäuse bestehen. Bisher wurden ausschließlich gerade Profilsysteme hergestellt. Diese Tatsache schränkt jedoch den kreativen Gestaltungsfreiraum der ArchitektInnen und LichtplanerInnen ein. Das Ziel der Masterarbeit für die XAL GmbH lag darin, eine Lösung für ein gebogenes Leuchtenprofil zur Herstellung individueller Deckenbilder zu erarbeiten. Die Auswahl eines passenden Fertigungsverfahrens für das Biegen eines Strangpressprofils wurde durch Gegenüberstellung mehrerer Verfahren durchgeführt. Eine Simulation des Biegeprozesses mit ANSYS® WorkbenchTM ergab die ideale Profilkontur für den Biegevorgang. Das Ergebnis der Nutzwertanalyse zeigte, dass das Rollbiegeverfahren die optimale Art zur Fertigung des gebogenen Profils darstellt. Die Simulation zeigte auf, dass ein schlankes Profil ohne aufwendige Konturen für den Biegeprozess am besten geeignet ist. Durch die Arbeit konnte ein fundiertes Wissen zur Auslegung von Strangpressprofilen für den Biegevorgang erlangt werden. Aufgrund der Auswahl des Fertigungsverfahrens Rollbiegen stehen dem Unternehmen nun mehr Möglichkeiten bei der Produktrealisierung zur Verfügung. Mit der Entwicklung eines gebogenen Leuchtensystems kann sich das Unternehmen noch stärker am Markt positionieren.
Aufgrund des enormen Wachstums des elektronischen Handels (E-Commerce) im chinesischen Markt steigt die Nachfrage an automatisierten und flexiblen Distributionszentren. Um den dynamischen Marktanforderungen und Herausforderungen des chinesischen Marktes erfolgreich zu entsprechen, bedarf es einer effizienten Konzepterstellung in der Vertriebsphase seitens der Fa. KNAPP AG. Ziel der Arbeit war es, ein Konzeptionierungstool zu erstellen, in dem anhand der Eingabe von wenigen Kundendaten, die Lösung des zu dimensionierenden Distributionszentrums automatisch berechnet wird. Dabei wurden jene Lager- und Kommissionierbereiche im Auslegungstool berücksichtigt, die aufgrund der strategischen Ausrichtung der Fa. KNAPP AG auf das chinesische Marktgebiet umgesetzt werden sollen. Die Durchführung der Arbeit erforderte neben den Berechnungsgrundlagen der Distributionslogistik sowie der Dimensionierung von Lager- und Kommissionierbereichen, die Auswahl einer geeigneten Anwendungsapplikation anhand einer Nutzwertanalyse. Die Umsetzung des Auslegungstools erfolgte im Microsoft Excel in Kombination mit der Skriptsprache VBA (Visual Basic for Applications). Dadurch kann eine ressourcenschonendere und transparentere Ausarbeitung des Konzeptes erzielt werden. Zusätzlich werden mithilfe des Auslegungstools kundenrelevante Anforderungen wie das Vollzeitäquivalent und der erforderliche Platzbedarf berechnet. Zusammenfassend ist hervorzuheben, dass sich mithilfe dieser umgesetzten Methode eine effizientere Konzepterstellung erzielen lässt. Gegenüber der konventionellen Konzeptionierung können 4 reguläre Arbeitstage eines Mitarbeiters eingespart werden.
Stadion-Apps, welche das Fanerlebnis bei Live-Sportevents bereichern sollen, sind vor allem in den High-End-Arenen der Amerikanischen Major-Sportligen ein etabliertes Konzept. In Zeiten der zunehmenden Digitalisierung und Vernetzungen rückt die Idee eines „Connected-Stadion“ auch in Europa immer mehr in den Fokus. In Europa ist Fußball der populärste Sport mit den größten Stadien, weshalb eine potentielle Stadion-App auf die Bedürfnisse von Fußballfans angepasst werden muss. Das Ziel dieser Arbeit ist es, den Aufbau einer Stadion-App für die Bedürfnisse des Fußballs zu evaluieren, sodass eine Akzeptanz bei den Fans erzielt und gleichzeitig auch Ertragspotentiale ausgeschöpft werden können, um einen wirtschaftlichen Betrieb der App zu gewährleisten. Für diesen Zweck wurden 29 potentielle Services durch eine Literatur-Recherche definiert, welche in einer empirischen Studie auf deren Akzeptanz bei den Fans, deren Potential zur Steigerung der Fanmotivation und deren Ertragspotentiale untersucht wurden. Das Ergebnis der Studie ergab, dass die Akzeptanz für eine Stadion-App bei einem Großteil der Fans vorhanden ist, nicht jedoch bei Fans mit regelmäßigen Stadionbesuchen. Während Fans mit weniger als vier Stadionbesuchen im Jahr die größte Akzeptanz und folglich auch das größte Potential zur Steigerung der Fanmotivation zeigen, sind Fans mit vier bis acht Stadionbesuchen im Jahr die größten Potentiale für eine direkte Monetarisierung. Die Arbeit liefert anhand der Ergebnisse Empfehlungen, welche Services wann in einer Stadion-App sinnvoll sind und wie die vorhanden Potentiale am besten ausgeschöpft werden können. Um die Wiederverwendbarkeit einer Stadion-App zu erhöhen, können die Ergebnisse dieser Arbeit herangezogen werden, um einen Standard zu entwickeln, welcher in mehreren Stadien, bei unterschiedlichen Veranstaltungen (andere Sportarten, Konzerte, etc.) oder auch in anderen Locations (Konzerthallen, Messen etc.) verwendet werden kann.
In den letzten Jahren ist ein stetiger Anstieg des Stellenwertes von agiler Softwareentwicklung zu beobachten. Im Speziellen ist Scrum eines der bedeutendsten und populärsten Frameworks für das Management agiler Entwicklungen. Im Zuge der agilen Entwicklung und auch im klassischen Projektmanagement, spielt das Team für die Entwicklung eine der größten Rollen. Dies führt dazu, dass auch die Strukturierung dieser Teams eine wesentliche Aufgabe spielt, da die Ressourcen meist knapp sind und die Arbeit der Teams eine möglichst hohe Effizienz aufweisen soll. In dieser Arbeit werden die gängigen klassischen, als auch die agilen Teamstrukturen vorgestellt und verglichen. Ergänzend dazu, werden einige agile Skalierungs-Frameworks betrachtet. Daraus resultierend, werden zwei Teamstrukturen in dieser Arbeit vorgestellt. Zum einen handelt es sich um Projektteams und zum anderen um Produktteams. Beide dieser Teams sollen eine effiziente Umsetzung im Unternehmen ermöglichen. In dieser Arbeit werden dazu Kriterien aufgezeigt, welche für die Entscheidung der Auswahl der Teamstruktur ausschlaggebend sind. Daraus resultieren wiederum Handlungsempfehlungen, welche sich an SoftwaremanagerInnen richten. Diese Handlungsempfehlungen zeigen, dass es möglich ist, aufgrund diverser Kriterien die Auswahl der Teamstruktur zu treffen. Letzten Endes gilt es jedoch die Vor- und Nachteile, welche sich durch die Teamstrukturen ergeben, zu priorisieren. Die Bildung der Teams soll somit, wie auch die agilen Methoden selbst, ein iterativer Lernprozess sein.
Um den steigenden Bedarf an IT-ExpertInnen, welcher durch die Digitalisierung von Geschäftsprozessen verstärkt auch in Unternehmen zum Tragen kommt, deren Kerngeschäft nicht im Bereich IT oder Softwareentwicklung liegt, entgegenzuwirken, setzt die ANDRITZ Gruppe seit 2018 Mendix als Low-Code bzw. No-Code Plattform ein. Durch den Einsatz solcher Plattformen, mit denen Softwarelösungen von nicht IT-Experten direkt in der Fachabteilung umgesetzt werden können, ergeben sich jedoch neue Herausforderungen betreffend der Zusammenarbeit zwischen IT- und Fachabteilung. Ziel dieser Arbeit ist es daher, Strukturen zur modellgetriebenen Softwareentwicklung in einem international verteilten Team, bestehend aus IT-ExpertInnen und MitarbeiterInnen der Fachabteilungen, zu etablieren, um Softwareprojekte effektiv über Abteilungsgrenzen hinweg umzusetzen. Dazu wurden anhand einer Literaturrecherche entlang des Software-Lebenszyklus Einflussfaktoren identifiziert, welche die effektive Zusammenarbeit in einem dezentralen Team beeinflussen können. Um diesen Faktoren je nach Projektsituation individuell begegnen zu können, wurde ein eigener Servicebereich innerhalb der ANDRITZ IT etabliert welche sämtlichen Tätigkeiten rund um das Thema Rapid Application Development (RAD) steuert. Kern dieses Servicebereichs ist ein Center of Excellence (CoE), welches die zentrale Steuerungs- und Koordinationsaufgabe übernimmt und je nach Projekt entscheidet, welche Umsetzungsmethoden, Werkzeuge und Rollen für eine erfolgreiche Umsetzung benötigt werden. Nach einer Einführung in die für diese Arbeit relevanten Theorietischen Grundlagen wird das ANDRITZ RAD CoE und dessen Aufgaben detailliert beschrieben. Im empirischen Teil dieser Arbeit wird der Einsatz des CoE an einem real durchgeführten Projekt innerhalb der ANDRITZ Gruppe getestet und anschließend mittels ExpertInneninterviews eruiert, ob sich die entwickelte Vorgehensweise für den praktischen Einsatz eignet oder ob Anpassungen durchgeführt werden müssen.
Menschen sind soziale Wesen, wir brauchen soziale Interaktionen, um ein gesundes Leben und einen gesunden Geist zu erhalten. Social Media ist in den letzten Jahren enorm gewachsen und wird vermehrt zur Kommunikation genutzt. Dadurch ergeben sich auf diesen Plattformen auch häufiger Konflikte. In dieser Arbeit wird im Speziellen das Posting-Verhalten der Nutzer*innen von Social Media im Zusammenhang mit den strafrechtlichen Auswirkungen untersucht. Als Basis dieser Forschung wurde zu den drei Themenbereichen der digitalen Kommunikationsplattform, des psychosoziologischen Verhaltens der Menschen in Bezug auf die Kommunikation miteinander und in Bezug auf die neue Technologie sowie der juristischen Auslegung und deren strafrechtliche Konsequenzen in Bezug auf Social-Media eine explorative Literaturrecherche durchgeführt. Zur Datenerhebungen wurde eine bestimmte Zielgruppe von Facebook-User*innen mit langjähriger Social-Media-Erfahrung interviewt. Es wurde ein Leitfadeninterview durchgeführt, welches wiederum mittels einer Inhaltsanalyse ausgewertet wurde. Die Ergebnisse zeigten, dass die Aufklärung und die beispielhafte Erläuterung der gesetzlichen Lage nahezu keine Beeinflussung auf das Posting-Verhalten der Nutzer*innen hatten. Konflikte wurden von den Befragten im Social-Media-Bereich wahrgenommen, jedoch nicht selbst erlebt. Deswegen wird eine gesetzliche Regelung und auch deren Anpassung befürwortet. Außerdem konnte daraus schlussgefolgert werden, dass bei bedachter und nicht aggressiver Nutzung von Social-Media Konflikte vermieden werden können.
Diese wissenschaftliche Arbeit wurde als Abschlussarbeit des Studiengangs IT & Wirtschaftsinformatik an der FH Campus02 in Graz erstellt. Sie handelt von den Möglichkeiten der Auswertung und Darstellung von Daten aus IT-Systemen, welche entlang eines zentralen Verkaufsprozesses entstehen. Als praktisches Beispiel wird der Angebotsprozess des Geschäftsbereiches Instrumentation & Test Systems der AVL List GmbH in Graz herangezogen. Die Nutzung von vorhandenen Daten für das eigene Vorankommen und die eigene Positionierung am Markt hat mittlerweile in vielen Betrieben Einzug gehalten und ist – sowohl als Entscheidungsgrundlage für das Management, als auch für die eigene Auswertung in mittleren Führungsebenen – nicht mehr wegzudenken. Der theoretische Teil dieser Arbeit erklärt, was Daten sind, wie sie zustande kommen und wie sie mittels Datenauswertung auch für Entscheidungen genutzt werden können. Der praktische Teil der Arbeit befasst sich mit einem Prozessabschnitt der AVL List GmbH aus Graz, die entlang ihrer CRM-, CPQ- und ERP-Systeme Datenauswertungen schon betreibt beziehungsweise Projekte initiiert, die die Nutzung bestehender strukturierter Daten sowie die Strukturierung von unstrukturierten Daten vorantreiben. Es wird erklärt, wie die AVL bestehende Daten nutzt beziehungsweise welche Projekte konkret im Entstehen sind, um neue Datenquellen zu erschließen.
Blockchain
(2020)
Die Papierindustrie ist eine hoch effiziente Branche und ein wichtiger Bestandteil der österreichischen Wirtschaft. Durch regulatorische Maßnahmen und die öffentliche Diskussion von Umweltfragen, wird der Papierindustrie eine noch bedeutendere Rolle zugeschrieben. Durch die Verarbeitung des Rohstoffes Holz ist die Papierindustrie eng mit der Forstindustrie verknüpft. Dadurch sieht sich auch dieser Industriezweig mit Umweltfragen konfrontiert, die vor allem über das Thema „nachhaltige Forstwirtschaft“ diskutiert wird. Durch das Aufkommen des Blockchain Hypes wurde in den letzten Jahren auch oft ein potentieller Use Case für die Papier- und Forstindustrie überlegt, der genau in die Kerbe des Themas „Nachhaltigkeit“ schlägt. So sollte die Herkunft von Holz entlang der Supply Chain zur Produktion eines Papierprodukts, in einer Blockchain, gespeichert werden. Doch macht diese Anwendung auch wirklich Sinn? Im Rahmen dieser Arbeit werden die grundlegenden Eigenschaften einer Blockchain erläutert und der aktuelle technische Stand der Forschung in der Blockchain Technologie recherchiert. Anschließend wird der Prozess zur Erzeugung von Baum zu Papier entlang der Supply Chain der beteiligten Stakeholder beschrieben. Daraus wird ein grober Anwendungsfall spezifiziert, der auf die Tauglichkeit zur Verwendung in einem Blockchain Netzwerk geprüft wird. Zur genaueren Spezifikation des Anwendungsfalls wurden Experteninterviews durchgeführt und daraus Vorteile, Nachteile und Hindernisse des Blockchain Anwendungsfalls diskutiert. Die Erkenntnisse der Arbeit zeigen auf, dass ein Blockchain Netzwerk in Kombination mit dem Anwendungsfall zwar geeignet ist, es in der digitalisierten Umsetzung zur Zurückverfolgung von Holz und der Schaffung einer Blockchain fähigen Anwendung allerdings noch Probleme gibt. Die Weiterentwicklung und Digitalisierung der Zurückverfolgung bedarf noch Investition in der Schaffung weiterer, verbesserter Lösungen.
Das Ziel dieser Masterarbeit ist es, das Grundkonzept eines Smart Homes anhand eines konkreten Beispiels zu erstellen und das ganze System auf einem Raspberry Pi zu implementieren. Ein Smart Home kann basierend auf mehreren Kommunikationsprotokollen erstellt werden. Die Masterarbeit hat gezeigt, dass ZigBee, welches im Jahr 2002 entwickelt wurde, eines der geeignetsten Kommunikationsprotokolle für Smart Homes ist. Ein ZigBee-Netzwerk erfordert die Verwendung eines zentralen Koordinators zur Steuerung des gesamten Netzwerks. Eine der Einschränkungen eines ZigBee-Netzwerks besteht darin, dass jedes Gerät nur mit dem von dem Hersteller unterstützten Koordinator arbeiten kann. Mit dem CC2531 USB-Stick und der Software Zigbee2MQTT, die von Texas Instruments entwickelt wurde, kann ein eigener Koordinator erstellt werden, mit welchem jedes Gerät, welches von der Software unterstützt wird, verbunden werden kann. Die Verwaltung eines Smart Homes ist über Hausautomationsplattformen möglich. Das Projekt der Masterarbeit konzentriert sich auf die zwei Plattformen, Domoticz und Home Assistant, die von der Zigbee2MQTT-Software unterstützt werden. Im Rahmen dieser Arbeit werden der Installationsprozess beider Plattformen und der Betrieb des Systems am Beispiel von vier ausgewählten ZigBee-Geräten demonstriert.
Cryptocurrency brokers offer price quotations to investors for a set period. The investor can decide whether to accept the offer while the quote remains open. The broker bears a risk of the price changing while the quote is open. To mitigate this risk, brokers add an individual risk premium to the price. This thesis investigates how to improve the risk premium’s precision by using an artificial neural network (ANN) instead of the classical general autoregressive conditional heteroscedasticity (GARCH) model. The thesis opens by describing financial risks, conventional traditional approaches, and the theory of machine learning, in particular neural networks. Subsequently, short-term volatility in the market is explored in terms of volatility prediction with the classical GARCH and ANN approach with a focus on an investor’s purchase process. With the predicted volatility, the risk premium is calculated with the expected short-fall method. This thesis explores BTC-USD, ETH-USD, and ETH-BTC. The risk premium is calculated for a 10-minute quotation period with data from the cryptocurrency exchange Kraken from October 2019 to April 2020. The analysis shows that the ANN approach delivers a more precise volatility prediction and risk premium calculation due to a lower mean square error deviation compared to the GARCH model. However, the ANN has a low explanation of power in the test period. Different volatility cluster phenomena in the short-term data compared to the classical daily basis are also identified.
Machine Learning ist seit vielen Jahren ein aufstrebender Begriff in der IT-Branche. Unabhängig von der jeweiligen Branche werden in nahezu allen Unternehmen, die Produkte oder Services an Kunden vertreiben, Daten über die Kunden im Rahmen des Verkaufsprozesses in diversen Formen gespeichert. Produktempfehlungen oder personalisierte Inhalte sind dabei ein Weg, die Kunden noch direkter und effektiver anzusprechen. Oft verwenden Unternehmen dazu Analysen aus Marketingabteilungen und legen statische Regeln für diese Inhalte fest. Diese Aufgabe kann jedoch auch Machine Learning übernehmen. Dabei sind vor allem bislang unbekannte Zusammenhänge innerhalb der verfügbaren Daten von Interesse. Welche neuen Informationen können mittels automatisierter Analysen gewonnen werden? In dieser Arbeit wurde eine Clusteranalyse von 250.000 anonymisierten Onlinekunden des weltweit zweitgrößten Möbelhändlers, der auch im E-Commerce vertreten ist, mithilfe von Machine Learning Algorithmen vorgenommen. Dazu wurde ein Experteninterview durchgeführt, um die für das Unternehmen interessanten Aspekte der Kunden in die Analyse aufnehmen zu können. Es wurden statische Regeln für eine Einteilung der Kunden erstellt, die im Anschluss mit den Ergebnissen aus der automatisierten Clusteranalyse gegenübergestellt wurden. Nach dem Vergleich mehrerer Ansätze wurde festgestellt, dass der K-means Algorithmus die gestellten Anforderungen für eine anschließende Analyse der Clusterinhalte am besten erfüllen konnte. Die abschließende Analyse der erstellten Cluster hat gezeigt, dass eine Verwendung von automatisch erstellten Segmenten zur Anwendung von Personalisierung machbar ist. Die Gemeinsamkeiten von Kunden innerhalb einzelner Cluster konnten anhand der Daten belegt werden. Darüber hinaus konnten neue, interessante Zusammenhänge aus den Clustern gelesen werden. So hat sich zum Beispiel herausgestellt, dass es nicht die vom Experten genannten Zielgruppen waren, die häufig bestellt oder viel Geld ausgegeben haben.
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.
Kundenorientiertes Handeln stellt Unternehmen vor immer neue Herausforderungen. Wie erfolgreich Unternehmen sind und wie deren Kunden zufriedengestellt werden können, ist von vielen Faktoren abhängig. Unter anderem ist der Umgang mit der Ressource Information von Bedeutung, so wie die Einbeziehung der Kunden in den gesamten Service-Prozess. Mittels Vorgehensweisen und Methoden, können die Bedürfnisse von Kunden erhoben und berücksichtigt werden. Diese Erkenntnisse ermöglichen es, ein auf Kundenbedürfnisse abgestimmtes Service zu etablieren. Die frühe Kundenintegration hat Einfluss auf die Kundenzufriedenheit, die für die meisten serviceorientierten Unternehmen von hoher Bedeutung ist. Einleitend widmet sich diese Arbeit wissenschaftlichen Grundlagen, die im Kontext dieses Themengebietes relevant sind. Dazu zählen grundlegende Themen im Bereich Service-Engineering, sowie ausgewählte wissenschaftliche Theorien, die für die Etablierung von neuen Services und für das Verständnis von Kundenzufriedenheit relevant sind. In weiterer Folge beschäftigt sich diese Arbeit mit der Erhebung von kundenrelevanten Aspekten für die Entwicklung eines Service-Konzeptes, im Umfeld von gewerblichen Kühl- und Gefriergeräten. Aufbauend auf diesem zu erarbeitenden Service-Konzept wird ein Prototyp und ein Vorgehen entwickelt, die als Grundlage für die weitere Implementierung für das Partnerunternehmen dienen sollen. Grundvoraussetzung für die Konzeption eines neuen Services beziehungsweise eines Prototypen ist die Analyse der Branchenumfeldes und eine Trendanalyse. Diese gesammelten Informationen dienen als Input für den empirischen Teil dieser Arbeit. Die Empirie hat in weiterer Folge jenen Zweck, die kundenrelevanten Funktionen des erweiterten Services zu evaluieren und in den geplanten Prototypen einfließen zu lassen. Aufbauend auf den neu gewonnenen Erkenntnissen und auf Basis des zu entwickelnden Prototypen, kann eine Handlungsempfehlung an das Partnerunternehmen weitergeben werden. Abschließend wird ein Ausblick auf die neu gewonnenen Erkenntnisse und die dadurch entstehenden Möglichkeiten geboten.
Thema der vorliegenden Masterarbeit ist die Betrachtung von Aspekten der Informationssicherheit beim Einsatz von Geräten aus dem Kontext des Internet of Things (IoT) in Unternehmensnetzwerken. Medienberichte und Analysen der letzten Jahre deuten auf frappierende Sicherheitslücken in IoT-Geräten und damit einer, durch die unabhängig davon zunehmende Bedrohungslage im Internet verschärften, Gefährdung der Sicherheit hin. Eine Frage, die sich dabei stellt, ist, ob vorhandene Sicherheitskonzepte für den Einsatz von IoT-Geräten ausreichend sind. Um dies zu beantworten war es notwendig, eine für die Arbeit gültige Definition des sehr abstrakten Begriffs "IoT" zu entwickeln und mögliche Anwendungsbereiche in Unternehmensnetzwerken aufzuzeigen. Darauf folgt eine Beschreibung der grundlegenden Aspekte der Informationssicherheit (Vertraulichkeit, Integrität und Verfügbarkeit) und eine Analyse von Bedrohungen und Angriffen auf Netzwerke. Ausgehend von diesen Erkenntnissen wurde ein Sicherheitskonzept zusammengestellt, welches heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit in Unternehmensnetzwerken beinhaltet. Um ein Konzept unter Berücksichtigung des Einsatzes von IoT-Geräten entwickeln und mit derzeitigen Maßnahmen zu vergleichen, wurden IoT-spezifische Rahmenbedingungen und Angriffe beschrieben. Dabei zeigen sich vor allem Einschränkungen hinsichtlich technischer Ressourcen, Anforderungen an die Skalierbarkeit von Lösungen sowie eigene Angriffsszenarien. Unter Zuhilfenahme von Standards zur Sicherstellung von Informationssicherheit wurde davon ausgehend ein Katalog von erkannten IoT-bezogenen Risiken zusammengestellt. Darauf basiert das vorgeschlagene, verbesserte Modell, welches organisatorische, applikationsbezogene und technische Maßnahmen zur Behandlung dieser Risiken beinhaltet. Dabei zeigt sich, dass nur Teile davon überhaupt durch Weiterentwicklung bestehender Sicherheitsmaßnahmen realisiert werden können, einige Ansätze jedoch neuartig sind und eine Veränderung der Sicherheitsarchitektur in einem Unternehmen notwendig wird. In der Praxis werden dabei insbesondere Mechanismen zur Authentifizierung, Autorisierung und der Sicherstellung des Datenschutzes zur Herausforderung, da dazu derzeit keine universell realisierbaren Konzepte vorliegen. Entsprechend dieser Erkenntnisse ist davon auszugehen, dass heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit nicht ausreichend für einen IoT-Anwendungsfall sind.
Eine Vielzahl an Softwareunternehmen hat sich in den letzten Jahren dem Thema Testautomatisierung gewidmet. Software-Tests auf Basis des User Interfaces bauen auf unterschiedliche Objekterkennungs-Technologien auf, beispielsweise die Identifikation über ID’s der HTML-Elemente oder der grafischen Bilderkennung. Besonders beim Testen moderner Webanwendungen ist Automatisierung naheliegend, denkt man an die Darstellung von Responsive Designs auf unterschiedlichen Bildschirmgrößen und Browsern. Um festzustellen, wie sich die unterschiedlichen Technologien der UI-Objekterkennung auf die Stabilität automatisierter Tests auswirken, wurde anhand praktischer Beispiele die Identifikation unterschiedlicher Elemente näher betrachtet. Aufbauend auf eine Literatur- und OnlineRecherche wurden UI-Objekterkennungs-Technologien vorgestellt und diskutiert sowie Faktoren zur Beurteilung der Stabilität aufgeschlüsselt. Unterschiedliche Vorgehensweisen zur Aufzeichnung der UI-Objekte wurden beschrieben und gegenübergestellt. Die Evaluierung verschiedener Technologien der UI-Objekterkennung verdeutlichte die Unterschiede in der Art der Aufzeichnung unterschiedlicher Elemente. Während die Identifikation der UI-Objekte über XPath durch eine Gewichtung der Pfad-Komponenten gesteuert werden kann, ist besonders der Einsatz von Image Recognition initial mit viel manuellem Aufwand bei der Aufzeichnung der Elemente verbunden. Jedoch sind Technologien wie OCR oder Image Recognition vermehrt für Spezialfälle einzusetzen, wenn etwa durch technische Einschränkungen nicht über ID oder XPath auf UI-Objekte zugegriffen werden kann. Zwar erwähnen immer mehr Hersteller von Testautomatisierungs-Tools Begriff Aritificial Intelligence im Kontext der UI-Objekterkennung, jedoch ist auch heute noch die Durchführung manueller Schritte für die Wartung der automatisierten Tests notwendig. Daher kann die Verantwortung über die Erstellung einfach zu wartender Tests zum aktuellen Zeitpunkt noch nicht an die jeweiligen Tools abgegeben werden, sondern verlangt noch immer Fachwissen und die strukturierte Vorgehensweise erfahrener Anwender. Dennoch bietet die Aussicht auf hybride Lösungen, die sich künstlicher Intelligenz bedienen, eine vielversprechende Zukunft im Bereich der Software-Testautomatisierung.
Durch die stetig wachsende Verbreitung von agilen Methoden, besonders beim Einsatz von Scrum, kommt es immer wieder zu Herausforderungen seitens des Projektmanagements. Alleine die Schwierigkeit, Besprechungen zu koordinieren, stellt das Projektmanagement oft vor Probleme. Noch problematischer sieht es bei der Durchführung von Projekten mit dezentralen Scrum-Teams aus. Speziell bei der Abwicklung agiler Projekte geschieht es immer wieder, dass die grundlegenden Prinzipien der Agilität nicht eingehalten werden. Diese sind jedoch für eine erfolgreiche Projektdurchführung entscheidend. Auf Basis dieser Problemstellung wird das Ziel dieser Arbeit definiert: die Erarbeitung von Handlungsempfehlungen, um dezentralen Scrum-Teams Möglichkeiten zur Einhaltung der Prinzipien des Agilen Manifests aufzuzeigen. Aufgrund der Notwendigkeit unterschiedlicher Betrachtungsweisen wird in dieser Arbeit sowohl auf Literatur als auch auf praxisbezogene Informationen zurückgegriffen. Im ersten Schritt wird dazu eine Literaturrecherche durchgeführt. Hierbei werden Informationen zu Scrum, dem Agilen Manifest und dezentralen Teams gesammelt. Der zweite Schritt besteht aus der Durchführung von Interviews mit ExpertInnen, die über Erfragungen mit Scrum und dezentralen Teams verfügen. Ziel ist die Identifikation der Problemfelder, denen sich dezentrale Scrum-Teams bei der Einhaltung der Prinzipien des Agilen Manifests stellen müssen. Die Erkenntnisse der Experteninterviews werden mit den aus der Literatur gewonnenen Informationen abgeglichen und diskutiert. Im Anschluss wird eine Onlineumfrage erstellt, die dazu dient, die erkannten Problemfelder hinsichtlich gefundener Lösungsmöglichkeiten genauer zu untersuchen. Abschließend werden Handlungsempfehlungen aus den Ergebnissen der Experteninterviews und der Onlineumfrage abgeleitet. Diese umfassen die Bereiche Kommunikation, Team, Teammitglieder, KundInnen, Unternehmen und Scrum. Die resultierenden Handlungsempfehlungen können für die praktische Zusammenarbeit und Projektdurchführung mit dezentralen Scrum-Teams genutzt werden und richten sich sowohl an Entscheider, die für die Zusammenstellung von Scrum-Teams verantwortlich sind, wie auch an die jeweiligen Teammitglieder.
Robotic Process Automation
(2019)
Robotic Process Automation ermöglicht die softwaregestützte Automatisierung von Prozessen, welche über die grafische Benutzeroberfläche durchgeführt werden. Dies geschieht indem sie menschliche Interaktionen mit dem Computer imitiert. Das heißt diese Software ermöglicht die applikationsübergreifende Automatisierung von Mausklicks und Tastatureingaben. Im Zuge dieser Arbeit wird untersucht, wie sich der Einsatz dieser Technologie auf die Durchlaufzeit und Qualität von Prozessen auswirkt. Erweist sich Robotic Process Automation als ein Tool, welches monotone und repetitive Aufgaben übernehmen kann, bleibt den MitarbeiterInnen mehr Zeit für wertschöpfende Tätigkeiten, die deren Qualifikation eher gerecht werden. Zur Beantwortung der Forschungsfrage wurde ein Quasi-Experiment durchgeführt. In diesem wurde der gewählte Prozess einerseits von einem mit dem Prozess vertrauten Probanden und andererseits mittels Workflow-Automatisierung in je zwei zeitlich unabhängig voneinander durchgeführten Versuchen jeweils zehn Mal durchlaufen. Bei diesem Prozess handelt es sich um einen Geschäftsprozess der Magna Steyr Fahrzeugtechnik AG & Co. KG. Konkret geht es dabei um den Import unterschiedlicher Instandhaltungsdokumente in das SAP ERP-System. Das Ergebnis dieser wissenschaftlichen Arbeit ist daher vor allem für Prozesse zum Datentransfer über Applikationsmasken relevant. Das Ergebnis dieses Quasi-Experiments zeigte, dass mit einer Prozessautomatisierung mittels Robotic Process Automation eine Reduzierung der Durchlaufzeit um durchschnittlich 52 Prozent bei mindestens gleich hoher Prozess- und Ergebnisqualität erreicht wird. Diese Arbeit befasst sich nicht mit den Kosten zur Automatisierung von Prozessen und eventueller Einsparungen in dessen Betrieb. In zukünftigen wissenschaftlichen Arbeiten könnte mittels Ermittlung der Total Cost of Ownership untersucht werden ab wann sich der Einsatz von Robotic Process Automation im Unternehmen bezahlt macht und zu Einsparungen führt.
Die Themen Nachhaltigkeit und Diversität nehmen nach und nach immer eine stärkere Rolle im Denken und auch Handeln der Menschen ein. In einer freien kapitalistischen Marktwirtschaft, in welcher einer der großen treibenden Kräfte die Konkurrenz ist, gilt es daher auf die neue Situation im Bereich der Nachfrage einzugehen und das entsprechende Angebot zu schaffen. Aber auch die sozialen Aspekte zur Festigung gesellschaftlicher Akzeptanz dürfen dabei nicht zu kurz geraten, denn es ist schon lange nicht mehr genug nur dem eigenen Kerngeschäft nachzugehen und weder nach links noch nach rechts zu blicken. Man agiert schließlich auf demselben Planeten und in derselben Umwelt wie alle anderen Bewohnerinnen und Bewohner dieser Welt auch. Die hohe Relevanz von Nachhaltigkeit haben auch bereits einige Regierungen erkannt. So beispielsweise das europäische Parlament, welches mittels der Richtlinie für nicht finanzielle Informationen (NFI-RL) bereits ein Zeichen im Sinne der Nachhaltigkeit gesetzt hat. Dieser folgend wurde auch österreichisches Recht in Form des Nachhaltigkeit- und Diversitätsverbesserungsgesetzes (NaDiVeG) daraus. In diesem Sinne zeigt die vorliegende Arbeit auf, wie wichtig die Themen Nachhaltigkeit und Diversität für die Wirtschaft, insbesondere für die österreichische, sind und dass diese für eine langfristige Existenz und einen langfristigen Erfolg nicht mehr wegzudenken sind. Um dies zu prüfen, wurde auf der einen Seite eine quantitative Umfrage mit 149 Teilnehmerinnen und Teilnehmern durchgeführt, im Zuge welcher das Bewusstsein für Nachhaltigkeit sowie das eigene Verhalten in diesem Kontext abgefragt wurden. Auf der anderen Seite wurden drei Experteninterviews mit Vertretern in der Steiermark agierender Unternehmen geführt. Es zeigt sich deutlich welchen großen Einfluss die Themen Nachhaltigkeit und Diversität auf den langfristigen wirtschaftlichen Erfolg von Unternehmen haben.
Marketing hat sich in den letzten Jahren zunehmend neue, vernetzte Medienkanäle zunutze gemacht, um sowohl effizienter als vor allem auch effektiv beim Ansprechen der Zielgruppen zu sein. Content Marketing und Influencer Marketing bieten diese Möglichkeit. Es bildete sich das Phänomen des Influencers, dessen Geschäftsmodell untersucht werden soll. Die Forschungsfrage „Was sind Best Practices und Methoden, um mit Content Marketing auf YouTube längerfristig erfolgreich zu sein?“ soll beantwortet werden. Die Arbeit hat sich das Ziel gesetzt, Influencer Marketing und der damit assoziierten Marketingdisziplinen wie dem Content Marketing und dem viralen Marketing zu erforschen, um daraus Erfolgskriterien und Best Practices extrahieren zu können. Diese sollen als Unterstützung dienen, möchte man Videoinhalte für YouTube erstellen und veröffentlichen. Hierbei handelt es sich um eine theoretische, wissenschaftliche Masterarbeit basierend auf einer Literaturrecherche und einer Fallstudie. Dem Konsumenten der Inhalte muss Mehrwert geboten werden. Dies kann in Form von Unterhaltung, Nützlichkeit, kostenloser Bereitstellung oder der einfachen Übertragbarkeit von Inhalten geschehen. Der Nutzen kann sich auch aus Kombinationen dieser Faktoren zusammensetzen. Auch die hohe Qualität der Inhalte sowie Kreativität gilt es beim Erstellen von Content für YouTube zu beachten. Dabei erhöht sich die Chance auf den viralen Effekt und die damit verbundene große Reichweite der Inhalte. Auch bei Online Communitys und sozialen Netzwerken erhöht sich dadurch die Chance auf Multiplikationen, was wiederum zu einer höheren Gewichtung des eigenen Contents durch den YouTube Algorithmus führt. Diese Erfolgsfaktoren wurden mithilfe der Fallstudie bewiesen. Auch das Geschäftsmodell für Influencer wurde anhand des Business Model Canvas erarbeitet und zusammengefasst.
Aufgrund der Bedrohungen des Klimawandels wurde in den letzten Jahren weltweit nach Lösungen für umweltfreundlichere Energie gesucht. Mit der Entwicklung erneuerbarer Energiequellen scheint ein guter Ansatz gefunden worden zu sein, um Elektrizität zu erzeugen. Die damit einhergehenden Herausforderungen sind die dezentrale Positionierung und die Volatilität der zukünftig hohen Anzahl von Wind- und Solarerzeugungsanlagen. Eine Folge dessen ist eine hohe Beanspruchung der Verteilnetze und damit auch die Notwendigkeit effizienterer Energienutzung. Im Jahr 2009 wurde daher auf europäischer Ebene beschlossen intelligente Stromnetze, sogenannte „Smart Grids“ und intelligente Stromzähler, sogenannte „Smart Meter“ einzusetzen, um die Energieversorgung durch die Nutzung von Internet- und Kommunikationstechnologien zu unterstützen. In Österreich wurde in Folge dessen im Jahr 2010 das Elektrizitätswirtschafts- und -Organisationsgesetz entworfen, welches gemeinsam mit weiteren Beschlüssen der Gesetzgebung den österreichischen Weg für effizientere und transparentere Energieversorgung vorgibt. Heute, im Jahr 2019, stehen die österreichischen Netzbetreiber mitten in der Umbauphase in der das Netz für die Verwendung der Smart Meter vorbereitet und die bisher eingesetzten mechanischen Zähler durch die neuen intelligenten Messgeräte ersetzt werden. Durch den fortgeschrittenen Status des Smart Meter-Rollout konnten Netzbetreiber und Energielieferanten bereits Erfahrungen sammeln, die Aufschluss über die tatsächlichen Auswirkungen auf den Energiemarkt geben können. Die vorliegende Arbeit zeigt die wirtschaftlichen Auswirkungen von Smart Metering auf und analysiert diese. Das Ziel ist es herauszufinden welche Kosten durch die Einführung von Smart Metering für Energieversorgungsunternehmen, und damit in weiterer Folge für Konsumenten, entstehen und mit welchen marktrelevanten Änderungen aus heutiger Sicht aufgrund des Betriebes von Smart Metering zu rechnen ist.
Besonders im Bereich der Informationstechnologie herrscht eine immerwährende Weiterentwicklung. Neue Technologien oder Vorgehensweisen bringen jedoch neben Verbesserungen jedoch meist auch neue Sicherheitsrisiken mit sich. Um ein einheitliches Sicherheitsniveau bei der Verarbeitung von personenbezogenen Daten im europäischen Raum zu schaffen, wurde die Datenschutz-Grundverordnung (DSGVO) erlassen. Am 25. Mai 2018 ist die DSGVO in Kraft getreten und ein Großteil der Unternehmen musste technische und organisatorische Maßnahmen zur DSGVO Konformität ergreifen. In dieser Masterarbeit wurde die Sammlung von Methoden und Vorgehensweisen zur bestmöglichen Umsetzung der durch die DSGVO vorgeschriebenen Anforderungen behandelt. Daher lautet die Forschungsfrage: „Wie können Klein- und Mittelunternehmen vorgehen um ihre IT-Infrastruktur an die notwendigen Voraussetzungen der Datenschutz-Grundverordnung anzupassen?“. Um die Forschungsfrage zu beantworten, wurde zunächst in der DSGVO bezüglich relevanten Aspekten und wichtigen Vorschriften recherchiert. In einer Zusammenfassung aller wichtigen Bereiche wird ein grundlegendes Wissen zur DSGVO vermittelt. Um Informationen aus der tatsächlichen Praxissituation zu erhalten, wurden fragebogengestützte Experteninterviews mit zehn Datenschutzexperten aus verschiedenen Unternehmen und Tätigkeitsbereichen durchgeführt. Anhand der Ergebnisse aus der Literaturrecherche und den Antworten aus den Experteninterviews wurde eine Best Practice Checklist zur Maßnahmenkontrolle erstellt. Mittels der in dieser Masterarbeit angeführten Informationen sowie der Unterstützung durch die erstellte Best Practice Checkliste werden Unternehmen bzw. Datenschutzverantwortliche bei der Umsetzung der DSGVO-Maßnahmen unterstützt.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.
Unternehmen stehen vor der Herausforderung eine Vielzahl an Informationen den Mitarbeitern und Mitarbeiterinnen zur Verfügung zu stellen. Zu diesem Zweck haben sich bereits unterschiedliche Softwarelösungen etabliert. Nachteilig sind in diesem Verfahren zwei Aspekte. Einerseits sind die Informationen so aufzubereiten, dass diese auch einfach abgerufen werden können. Andererseits haben die Anwender und Anwenderinnen die Bedienung einer Software zuerst zu erlernen. Chatbots ermöglichen es, Informationen durch die Verwendung der natürlichen Sprache aufzufinden. Zum Kennenlernen dieser Technologie, erfolgt die Entwicklung eines ChatbotPrototyps. Dieser setzt AIML-Dokumente und den Multinomialen Naive Bayes Algorithmus ein. Die AIML-Dokumente dienen zur Simulation von allgemeinen Gesprächsthemen. Der Multinomiale Naive Bayes wird hier genutzt, um spezifische Anfragen entsprechend zu klassifizieren. Aufbauend auf diesen Prototyp erfolgt eine quantitative Befragung von Teilnehmenden unterschiedlicher Organisationen. Erhoben wird, inwiefern sich Chatbots auf die Servicequalität auswirken. Diese Messung erfolgt mit der Veränderung der Zufriedenheit der Teilnehmer und Teilnehmerinnen. Der Fragebogen beinhaltet die Ermittlung der Technologieakzeptanz, die aktuelle Situation im Unternehmen, die Veränderung durch Chatbots und persönliche Lebensumstände. An dieser Umfrage haben insgesamt 27 Personen teilgenommen. Ausgehend von den Ergebnissen kann gesagt werden, dass die Servicequalität, welche durch die Veränderung der Zufriedenheit erhoben wird, sich im Mittel um 0,924 auf der Fünf-teiligen Likert-Skala verbessert hat. Wird der Median herangezogen, so verändert sich dieser Wert von drei auf fünf. Aufbauend auf diesen Erkenntnissen lassen sich in einzelnen Organisationen Chatbots implementieren. Dies ermöglicht eine konkrete Umsetzung und die Messung des Einflusses auf die Servicequalität mit zusätzlichen Messverfahren, wie der Kano-Analyse oder dem Service Blueprint.
In den vergangenen Jahren haben sich die Rahmenbedingungen im Hochschulsektor bedingt durch bildungspolitische Entscheidungen wie auch den technologischen Fortschritt bedeutend verändert, weshalb sich die Hochschulen einem zunehmenden Wettbewerbsdruck ausgesetzt sehen. Als Reaktion auf diese Entwicklung steigt das Interesse der Bildungseinrichtungen an jenen Aspekten und Entscheidungskriterien, welche aus Sicht der Nachfragenden den Wert des Leistungsangebotes bestimmen. In diesem Kontext ist es das Ziel der vorliegenden Arbeit zu untersuchen, wie sich ausgewählte Einflussfaktoren auf den wahrgenommenen Wert und die Zahlungsbereitschaft von Studierenden für Bildungsleistungen auswirken. Zu diesem Zweck werden die in diversen empirischen Studien beschriebenen Ansätze zur Konzeptualisierung der Wertwahrnehmung im Hochschulbereich näher analysiert, um daraus ein auf den wesentlichen wertbestimmenden Aspekten basierendes multidimensionales Modell abzuleiten. Des Weiteren werden bestimmte soziodemographische Merkmale als zusätzliche Einflussfaktoren in die empirische Untersuchung aufgenommen. Zur Messung der Zahlungsbereitschaft wird unter Berücksichtigung der zur Verfügung stehenden Methoden die direkte Preisbefragung in Form des Preisbarometers ausgewählt. In der weiteren Folge werden auf Grundlage der erarbeiteten theoretischen Erkenntnisse mehrere Hypothesen formuliert, die anhand der Ergebnisse aus einer quantitativen Erhebung geprüft werden. Die statistische Auswertung der erhobenen Daten zeigt, dass innerhalb der verschiedenen Dimensionen des wahrgenommenen Wertes die karriere- und imagebezogenen Aspekte sowie die emotionale Komponente von besonderer Bedeutung sind, während die Zahlungsbereitschaft der Studierenden neben den bereits genannten Kriterien auch durch den funktionalen Wert beeinflusst wird. Im Kontext der soziodemographischen Merkmale können in Bezug auf das Alter, das Geschlecht und den Studienfortschritt relevante Korrelationen mit den verschiedenen Wertdimensionen identifiziert werden. Zusammenfassend betrachtet liefern die Ergebnisse der vorliegenden Arbeit Hinweise auf jene Faktoren, welche für die Gestaltung und das Preismanagement von Bildungsleistungen im Hochschulbereich entscheidend sein können.
Die vorliegende Masterarbeit soll Unternehmen ansprechen, die planen, eine Single Sign On Lösung in ihrem Unternehmen zu etablieren. Damit das Authentifizierungsverfahren im Unternehmen von den Mitarbeitern auch genutzt wird, muss eine starke Akzeptanz zwischen den Nutzern und einer Single Sign On Lösungen gegeben sein. Aus diesem Grund werden im Theorieteil Faktoren der Benutzerakzeptanz aus dem Technology Acceptance Model 3 herausgearbeitet, welche im Speziellen für die Akzeptanz von Single Sign On Lösungen zutreffend sind. Die empirische Forschung besteht dabei aus zwei Teilen, in denen einerseits eine Umfrage erstellt und andererseits die Zusammenhänge zwischen den herausgearbeiteten Faktoren und der Benutzerakzeptanz auf Signifikanz geprüft werden. Die Auswertung der Umfrage im Rahmen dieser Masterarbeit zeigt dabei einen starken Zusammenhang zwischen der IT-Affinität und der Einstellung des Nutzers gegenüber einer Single Sign On Lösung auf die Benutzerakzeptanz. Eine ebenfalls im Rahmen dieser Arbeit erstellte Fallstudie zeigt, dass Single Sign On Technologien im Privatbereich noch keinen großen Anklang finden und dass auch die Vertrauenswürdigkeit des Identity Provider keinen Einfluss auf die Benutzerakzeptanz von Single Sign On Lösungen hat. Abschließend werden Maßnahmenvorschläge erstellt, um die Akzeptanz von Single Sign On sowohl in Unternehmen als auch im Privatbereich zu steigern.
IOT & IPV6
(2018)
Das Internet ist seit seiner Entwicklung stetig gewachsen. Durch das Aufkommen neuer Technologien stieg die Zahl der über dieses weltweit verbreitete Netzwerk kommunizierenden Endgeräte immer weiter an. Besonders das wachsende Interesse von Unternehmen ihre Systeme miteinander zu vernetzen führt dazu, dass die zu Verfügung stehende Menge freier IP-Adressen immer geringer wird. Durch den Einzug von IoT-Geräten in privaten Bereichen, welcher den Verzehr von IP-Adressen beschleunigt ist es nur noch eine Frage der Zeit bis das bestehende IPv4 flächendeckend seinem von seinem Nachfolgeprotokoll IPv6 ersetzt wird. Durch diesen Wandel steigt zwar die Anzahl der theoretisch, zu Verfügung stehenden IPAdressen auf circa 340 Sextillionen an, jedoch entstehen durch die von IPv6 genutzten Mechanismen und eingesetzten Protokolle auch neue Angriffsvektoren welche im Besonderen IoT-Geräte zu potentiellen Angriffszielen von Hackern werden lassen können. Auf Grund ihrer eingeschränkten Ressourcen und oft unzureichenden Versorgung mit sicherheitsrelevanten Softwareupdates durch die Hersteller oder die Endnutzer können IoT-Geräte sehr schnell zu einer ernstzunehmenden Gefahr für IPv6-Netzwerke werden. Dabei zeigt sich, dass der primäre Fokus im Besonderen auf die Absicherung der Grenzen des Netzwerkes gerichtet sein muss. In dieser Arbeit wird auf Basis von Analysen des IPv6-Protokolles und den Merkmalen und Spezifikationen gängiger IoT-Gerät ein einfaches Framework entwickelt welches sich an die besonderen Sicherheitsanforderungen von IoT-Geräten in IPv6-Netzwerken gerichtet ist. Das IPv6/Iot-Security Framework soll als Basis dienen um einen sicheren Einsatz von IoT-Geräten in sensiblen Netzwerken zu gewährleisten ohne dabei andere Elemente der Infrastruktur nachteilig zu beeinflussen.
Unterstützung von Entscheidungsprozessen im Einkaufsbereich mit modernen Data Mining Algorithmen
(2018)
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Data Mining Verfahren bei der Auswahl von Lieferanten im Supplier Relationship Management in der Automobilindustrie. Es wird geprüft, wie sich die Entscheidungsqualität bei der Auswahl von Lieferanten verändert, wenn bei der Entscheidungsfindung eine Vorhersage der Lieferantenperformance aus einem Data Mining Modell vorhanden ist. Aus den Erkenntnissen einer Literaturrecherche wird das Vorgehensmodell Analytic Hierarchy Process für die Bewertung von Lieferanten ausgewählt und ein an die Praxis angelehntes Bewertungsmodell erstellt, dass in weiterer Folge als ideale Lösung betrachtet wird. Diese Erkenntnisse fließen in das Design eines Data Mining Modells welches durch ein neuronales Netzwerk mit Backpropagation gelöst wird. Die Umsetzung des neuronalen Netzwerks als Prototyp wird mit dem Cross Industry Standard Process for Data Mining Vorgehensmodell durchgeführt. Das Data Mining Modell wird mit idealisierten Testdaten validiert. Die Testdaten basieren auf dem idealen Bewertungsmodell. Auf Basis des Data Mining Modells ein Experiment mit A/B-Test durchgeführt indem die Teilnehmer eine simulierte Lieferantenentscheidung durchführen müssen. Eine der beiden Gruppen wird zusätzlich zu den Rohdaten der Entscheidung die Ergebnisse des Prototyps zur Verfügung gestellt. Die Daten aus dem Experiment werden mittels quantitativen und qualitativen Fragebogen erhoben. Die erhobenen Daten im Experiment werden mit den idealisierten Daten aus dem Bewertungsmodell auf Basis des Analytic Hierarchy Process verglichen und Rückschlüsse auf die Qualität der Entscheidung getroffen. Aus dem Ergebnis der Datenauswertungen des Experiments wird die Forschungsfrage beantwortet. Der Einsatz von Data Mining Modellen mit dem Ziel der Vorhersage von Lieferantenbewertungen führt zu einer Verbesserung der Entscheidungsqualität bei der Auswahl von Lieferanten.
This thesis identifies the advantages business analytics provide responsible persons (chief executive officers, controllers, chief finance officers, project managers, IT managers) in Austrian medium-sized construction industry companies with an existing information system. The thesis begins with a literature review to define business analytics, the building trade, and medium-sized companies. 17 hypothesised advantages are then explored using quantitative and qualitative methods. The quantitative method is an online survey; expert interviews with three responsible persons form the qualitative method. The outcome is run through a correlation analysis in order to evaluate the advantages. The results show there are 16 advantages including better forecasting, understanding of patterns, increase of quality, and optimised capacity in production. Only the assumed advantage of a smaller number of stoppages in production couldn´t be confirmed. These 16 advantages show the value of business analytics for medium-sized companies in the construction industry.
In einem immer komplexer werdenden Umfeld nimmt Projektmanagement (PM) in vielen Unternehmen einen immer höheren Stellenwert ein. Es ist oft der „Enabler“ für die Umsetzung komplexer Aufgaben. Die Bewältigung solcher Aufgaben ist in der Linienorganisation häufig nicht oder nur schwer umzusetzen. Wird dafür jedoch ein Projekt aufgesetzt und eine temporäre Projektorganisation gebildet, ist das Know-how der Experten gebündelt, die Personen können flexibler agieren und die Ziele sind klar definiert. Die Initiierung, Planung, Steuerung, Kontrolle sowie der Abschluss von Projekten zählen zu den Hauptaufgaben des Projektleiters. Im Betrachtungsfokus des Projektleiters liegen die Zeit, die Ziele und das Budget. Methoden von unterschiedlichen Projektmanagement-Standards unterstützen den Projektleiter und das Projektteam bei der Projektumsetzung. Jedoch lässt sich die Komplexität mit den herkömmlichen Methoden der unterschiedlichen Projektmanagementansätze nicht vollständig bewältigen. Vor allem bei technisch komplexen Projekten kommt es häufig zu Problemen bei der Umsetzung. Um dem entgegen zu wirken ist der Projektleiter als Moderator zur Lösungsfindung gefragt. Doch oft mangelt es im gesamten Projektteam am Methodenwissen, um komplexe Sachverhalte strukturiert zu bearbeiten. Hierbei können Methoden des Systems Engineering (SE) Abhilfe schaffen. Diese Disziplin basiert auf der Systemtheorie und bietet unter anderem Handlungsempfehlungen zum generellen Vorgehen, zur Problemlösung sowie zur Variantenbildung. Die gemeinsame Nutzung eines Projektmanagement-Standards und von Systems Engineering liegt im Fokus dieser Arbeit. Im ersten Kapitel wird die Problemstellung und die Einführung in das Thema betrachtet. Im zweiten Kapitel wird Systems Engineering erläutert. Ein ausgewählter SE-Ansatz wird in diesem Kapitel detailliert beschrieben und für die gemeinsame Nutzung mit dem Projektmanagement-Standard von IPMA herangezogen. Die darauffolgenden Kapitel widmen sich dem Projektmanagement, der gemeinsamen Nutzung der beiden Ansätze, den qualitativen Befragungen zum Informationsgewinn für diese Arbeit und den Ergebnissen. Im letzten Kapitel wird die Forschungsfrage „Wie können Komponenten des IPMA-Projektmanagement-Standards und des Systems Engineering bestmöglich kombiniert werden, um den Projekterfolg zu steigern?“ beantwortet.
In dieser Arbeit werden mögliche Anwendungen des vertraulichen Cloud Computing im Zusammenhang mit der Datenverarbeitung evaluiert. Dazu wird eine experimentelle Umgebung, in der vertrauliche homomorphe Verschlüsselung für verschiedene Szenarien angewendet und deren praktische Anwendbarkeit bewertet wird, geschaffen. Cloud Computing hat wirtschaftlich ein großes Potenzial. Insbesondere im Kontext der Anwendung von Cloud Computing im Zusammenhang mit der Verarbeitung sensibler Daten besteht jedoch keine Garantie für den Erhalt des Datenschutzes. Die Wahrung der Vertraulichkeit von persistierten Daten wird zumeist durch bewährte Verschlüsselungsmethoden gewährleistet. Vor der Durchführung von Berechnungen müssen diese jedoch in Klartext entschlüsselt werden. Die homomorphe Verschlüsselung bietet eine eingeschränkte Möglichkeit diese Berechnungen auch mit verschlüsselten Daten durchzuführen. Da sich dieses Forschungsgebiet in den letzten zehn Jahren stark entwickelt hat, gibt es noch relativ wenig Anhaltspunkte dafür, inwiefern die Verwendung homomorpher Verschlüsselung in realen Anwendungen praktikabel sein kann. In dieser Arbeit werden in einem ersten Schritt Szenarien erstellt, welche eine Verbindung zwischen den Potenzialen der Technologie und den kommerziellen sowie politischen Erwartungen herstellen. Im nächsten Schritt wird durch eine Evaluierung verschiedener homomorpher Verschlüsselungsbibliotheken beurteilt, welche kryptographische Basis für alle erforderlichen mathematischen Operationen der entworfenen Szenarien geeignet ist. Anschließend werden die entworfenen Szenarien implementiert und hinsichtlich ihrer Ergebnisqualität, ihrer Speicherauslastung und ihrer Laufzeit ausgewertet. Abhängig von der technischen Ausrichtung des Szenarios wird ein hohes oder niedriges Implementierungspotenzial für reale Anwendungen bestimmt. Die Ergebnisse sollten jedoch insbesondere im Hinblick auf den zugrunde liegenden Kontext interpretiert werden. In Zukunft gilt es weitere praxisnahe Szenarien zu entwerfen, zu implementieren und ausführlich zu testen, um die Grenzen und das Potenzial dieser Technologie besser einschätzen zu können.
Online Marketing ist ein großer Trend und hat in den letzten Jahren laufend an Beliebtheit gewonnen. Daher war es das Ziel der vorliegenden Masterarbeit, den Einfluss von Online Marketing Methoden auf die Bindung und Zufriedenheit von Kundinnen und Kunden von Unternehmen im Hotellerie- und Gastronomiebereich zu erheben. Hierfür wurde zunächst auf den Zusammenhang von Kundinnen- und Kundenbindung und –zufriedenheit eingegangen und erörtert wie diese gemessen werden kann. Anschließend wurde mithilfe einer quantitativen Umfrage unter Besucherinnen und Besuchern eines speziellen Unternehmens die Bindung an eben jenes erhoben und mithilfe des Kano-Modells ihre Zufriedenheit mit den getätigten Online Marketing Maßnahmen ermittelt. Außerdem wurde erforscht wie wichtig Online Marketing Tätigkeiten für Kundinnen und Kunden im Allgemeinen sind. Durch einen qualitativen Fragebogen, welcher von drei Besucherinnen und Besuchern des genannten Unternehmens ausgefüllt wurde, konnte zusätzlich noch qualitatives Feedback zum Unternehmen und vorhandenen Online-Auftritt eingeholt werden. Aus Basis der gesammelten Erkenntnisse wurde ein Online Marketing Konzept für Unternehmen im Hotellerie- und Gastronomiebereich erarbeitet. Letztlich wurde mithilfe des Service Engineering Workflows der FH CAMPUS02 erhoben welche Maßnahmen zu einer noch weiteren Verbesserung der Zufriedenheit und Bindung führen könnten. Als einfache und günstige Maßnahme wurde die Möglichkeit zur Online-Reservierung vorgeschlagen. Zusammenfassend gibt diese Arbeit einen Überblick darüber, warum Online Marketing Maßnahmen auch für kleine Unternehmen im Gastronomie- und Hotelleriebereich sehr wichtig sind und welchen großen Einfluss sie auf die Bindung und Zufriedenheit von Kundinnen und Kunden haben.
Unternehmen stehen vor der Herausforderung, die Geschwindigkeit der Leistungserbringung an die Geschwindigkeit der sich verändernden Rahmenbedingungen und Anforderungen anzupassen. Unternehmen stehen vor der Herausforderung, sich mit ihren etablierten Prozessen gegen die Flexibilität von Startups durchzusetzen. Schnell fortschreitende Entwicklungen erfordern kürzere Innovationszyklen in der IT. Zeitgleich sollen IT Services weiterhin stabil und wirtschaftlich betrieben werden. IT-Organisationen, die Prozesse angelehnt an das weitverbreitete IT Service Management Best Practices Framework ITIL etabliert haben, sind gefordert, die Geschwindigkeit der Leistungserbringung zu erhöhen, ohne die Stabilität des Systems negativ zu beeinträchtigen. In dieser Arbeit wird zunächst ein Arbeitsablauf zur Leistungserbringung und dessen Durchlaufzeit beobachtet. Die Beobachtung findet in einem Großunternehmen statt, welches Prozesse etabliert hat, die sich an ITIL orientieren. Im Anschluss daran wird das IT Service Management Framework ITIL beschrieben und die darin enthaltenen Prozesse den beobachteten Arbeitsschritten gegenübergestellt. Unter Zuhilfenahme einer Literaturrecherche werden Ansätze identifiziert, die eine Beschleunigung der Leistungserbringung versprechen. Als weiterer Schritt werden Anwendungsfälle aus den Beobachtungen ausgewählt und Lösungsansätze entwickelt, die die Vorteile aus ITIL und DevOps vereinen, um eine schnelle Leistungserbringung bei hoher Systemstabilität zu ermöglichen. Auf Basis der identifizierten Lösungsansätze wird ein adaptierter Arbeitsablauf beschrieben und Rückschlüsse auf die potentielle Zeiteinsparung bei gleichbleibenden Ressourceneinsatz gezogen. Durch den Einsatz einer Deployment Pipeline pro Service wird ein standardisierter Weg zur Überführung von Änderungen in die Produktivumgebung erzeugt. Die hohe Anzahl an automatisierten Tests innerhalb der Deployment Pipeline sorgt für eine hohe Systemstabilität. Aufgrund des dadurch verringerten Risikos können IT Change Management Prozesse als Typ „Standard-Change“ anstatt „Normal-Change“ durchgeführt werden. Hierdurch werden kürzere Deploymentzyklen zugelassen und durch den Einsatz von agilen Softwareentwicklungsframeworks, die häufige Deployments vorsehen, eine frühere Nutzung der Software ermöglicht wird.
Innerhalb der Möbelbranche stehen vor allem Klein- und Mittelunternehmen vor der großen Herausforderung ihre Kunden und Kundinnen mittels geeigneten, kostengünstigen Online-Marketing- und Kommunikationstools zu erreichen und langfristig an sich zu binden. Großunternehmen hingegen verfügen über intuitive, auf Algorithmen basierende, kostenintensive Tools, welche genaue Kundenwünsche erfassen. Diese Arbeit widmet sich der Zielgruppe der Klein- und Mittelunternehmen und stellt ein Konzept mit geeigneten, kostengünstigen Tools vor, welches dazu dient, Kunden und Kundinnen zu erreichen. Die Auswahl der Tools basierte auf der Basis der Einfachheit, der Definition der Zielgruppe und der Messung der Reichweite. Durch verschiedene Strategien des Online-Marketing und der Grundlage der modernen Kommunikation wurde mittels des Service Engineering Prozesses ein Verfahren entwickelt, welches ein kostengünstiges Vorgehen im Bereich von Online-Marketing und Online-Kommunikation ermöglicht. Die Erkenntnisse aus den einzelnen quantitativen Erhebungen flossen in die verschiedenen Phasen des Vorgehensmodelles ein und wurden mit Methoden angereichert. Innerhalb der Pilotierung wurden vier wichtige Tools als Mockups dargestellt, zum einen Bewerbungen auf Social Media Plattformen, Low-Budget Videos, E-Mail Newsletter und zum anderen die Website, welche als Visitenkarte des Unternehmens anzusehen ist. Die Evaluierung des Konzeptes basiert auf der qualitativen Erhebung von Experten- und Expertinneninterviews aus dem Bereich der Möbelbranche. Auf Grund der Aussagen der Experten und Expertinnen trifft das entwickelte Konzept den modernen Zeitgeist und eignet sich für Klein- und Mittelunternehmen in Österreich. Auf Basis dieses Konzeptes und dem aktiven Einwirken eines Unternehmens wird die Möglichkeit geschaffen, die Marke und das Unternehmen selbst zu festigen und weiter auszubauen.
Die vorliegende Masterarbeit ist im Bereich der Informationssicherheit und dem Informationssicherheitsmanagement angesiedelt. Ziel der Arbeit war es, einen allgemeinen Ansatz für die Entwicklung von Informationssicherheitsrichtlinien zu entwickeln. Aufgrund der Größe des Themenfeldes behandelt diese Arbeit vor allem das Richtliniendesign im Kontext der ISO 27001. Der erste Teil der Arbeit deckt den theoretischen Hintergrund von Informationssicherheitsmanagement, Kryptographie und den gesetzlichen Vorgaben dazu ab. Das Ergebnis dieses Teils war ein grundsätzliches Verständnis davon, wie Informationssicherheitsmanagement funktioniert und welchen Beitrag Kryptographie dazu leisten kann. Außerdem wurde festgestellt, dass es für die öffentliche Verwaltung keine besonderen Gesetze im Bereich der Informationssicherheit gibt. Der zweite Teil der Arbeit widmet sich dem Design von Informationssicherheitsrichtlinien. Aufgrund dessen, dass es noch keinen allgemeinen Ansatz für die Entwicklung solcher Richtlinien gab, wurde ein eigenes Vorgehensmodell dafür entwickelt. Basis für die Entwicklung des Modells waren die Erkenntnisse aus der Literaturrecherche hinsichtlich der Erfolgsfaktoren von Informationssicherheit. Im nächsten Schritt wurden fünf Fachleute aus dem Bereich der Informationssicherheit zu dem entwickelten Modell befragt. Das Ergebnis dieser Befragung war eine verbesserte Version des aufgestellten Modells. Mit Hilfe dieses Modells wurde dann in einem weiteren Schritt eine Richtlinie für die Anwendung von kryptographischen Verfahren entwickelt. Außerdem ist deutlich geworden, dass die verschiedenen Richtlinien für Informationssicherheit so unterschiedlich sind, wie die Unternehmen, in denen sie Anwendung finden und dass die Unternehmenskultur einen großen Einfluss auf den Erfolg dieser Richtlinien hat. Zusätzlich wurde festgestellt, dass es verschiedene Arten von Anforderungen innerhalb der ISO 27002 gibt. Einige können direkt umgesetzt und mit Richtlinien erfüllt werden, und andere wirken sich auf viele Unternehmensbereiche aus. Aufgrund dessen war eine Beantwortung der Forschungsfrage schwierig. Das entwickelte Modell versucht den verschiedenen Ansprüchen verschiedener Organisationen gerecht zu werden, aber die letztendlich entwickelte Richtlinie ist nicht auf andere Organisationen übertragbar.
Die Verbreitung von Geräten, die mit dem Internet kommunizieren und Teile des Alltags vieler Menschen sind, nimmt immer mehr zu. Das Internet of Things (IoT) kombiniert bestehende Technologien mit dem Internet, wodurch neue Einsatzgebiete erschlossen werden. IPKameras, Verkehrssteuerungssysteme und kritische Infrastrukturen wandern zunehmend in das Internet und werden dadurch für Personen erreichbar, die keinen Zugriff auf diese Systeme haben sollten. Dies führt dazu, dass neue Angriffsvektoren, die von Hackern und Kriminellen genutzt werden, entstehen und sowohl die IT-Sicherheit der IoT-Objekte selbst, als auch jene von bestehenden IT-Infrastruktur gefährdet werden. Viele IoT-Produkte, die für die Endkundin und den Endkunden konzipiert wurden, verfügen nicht über die notwendigen Sicherheitsmechanismen, die einen ordnungsgemäßen und sicheren ITBetrieb gewährleisten sollen. Die Produktentwicklung der Hersteller setzt den Fokus auf Bedienungskomfort und einfacher Konfiguration, vergisst jedoch die Gefahren, welche von ungesicherten IoT-Objekten ausgehen. Diese Gefahren reichen von Funktionsstörungen, dem Versenden von Spam-E-Mails, bis zur Nutzung von IoT-Objekten für großangelegte Hacker-Angriffe auf kritische Infrastrukturen. In dieser Arbeit wird ein IoT-Security Framework entwickelt, das auf Basis von Analysen bestehender IoT-Sicherheitsproblematiken, Sicherheitsanforderungen definiert und diese in einem Integrationsprozess zusammenfasst. Die Sicherheitsanforderungen wurden aus bereits publizierten Angriffsszenarien abgeleitet und werden sich direkt an das IoT-Objekt richten, der sicheren Kommunikation zwischen den einzelnen Objekten, sowie an die Cloudplattformen, die im Umfeld von IoT häufig zum Einsatz kommen. Das IoT-Security Framework soll es Endkonsumentinnen und Endkonsumenten ermöglichen, die IT-Sicherheit von IoT-Produkten zu bewerten und deren Risiko für sich selbst, als auch für bestehende IT-Infrastrukturen zu beurteilen.
Die Einführung eines Qualitätsmanagementsystems ist eine wichtige strategische Entscheidung für eine Organisation, diese Entscheidung kann helfen, die Gesamtleistung des Unternehmens zu steigern und eine gute Basis für nachhaltige Entwicklungsarbeiten bereitzustellen (ISO9001, 2015). Die ISO 9001 ist ein weltweit anerkannter Standard für die Zertifizierung von Qualitätsmanagementsystemen. Am 15.09.2015 ist die neue ISO 9001:2015 erschienen, sie Iöst die ISO 9001:2008 ab. Die derzeit nach ISO 9001:2008 ausgestellten Zertifikate sind noch bis 14.09.2018 gültig. Ab dann müssen sich die Organisationen nach der neuen ISO Norm zertifizieren lassen. Das Konzept der neuen ISO 9001:2015 beruht auf der High-Level-Structure für Managementnormen und orientiert sich am PDCA – Zyklus. In dieser Arbeit behandelt der Autor die Thematik der ISO 9001:2015 Zertifizierung der Steiermärkischen Krankenanstaltengesellschaft, Abteilung KMS. Zum aktuellen Zeitpunkt ist die Abteilung KMS nach der ISO 9001:2008 zertifiziert. Der Autor arbeitete die fehlenden Nachweise zur erfolgreichen Zertifizierung nach ISO 9001:2015 aus und führte anschließend eine Befragung zur Sinnhaftigkeit der Nachweise durch. In einer anonymen Befragung wurden Mitarbeiter der Abteilung KMS, mit Qualitätsmanagementaufgaben und Qualitätsmanagementerfahrung, befragt wie sinnvoll sie die neuen Anforderungen der ISO 9001:2015 und die ausgearbeiteten Nachweise empfinden. Die Befragten wussten nicht, dass es sich bei der Befragung um die ISO 9001 Nachweise handelt. Nicht sinnvolle, wenig sinnvolle, optionale und notwendige Nachweise wurden somit für die Abteilung erkannt und die Sinnhaftigkeit der Revision in Frage gestellt. Die Befragung hat gezeigt, dass die neuen Anforderungen der ISO 9001 eine Qualitätssteigerung bringen können und die Revision somit ihren Sinn erfüllt hat. Fehlende Nachweise, der Abteilung KMS, für die Zertifizierung nach der neuen Norm wurden bearbeitet und Einführungsvorschläge gegeben. Am Beispiel der Einführung eines Projektportfoliomanagements wurden die Verbesserungen deutlich gemacht. Am Ende vergleicht der Autor die ISO 9001:2015 mit der EN 15224, welche eine Gesundheitsspezifische Norm darstellt.
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Der technologische Fortschritt eröffnet Unternehmen unzählige Möglichkeiten innovative Produkte und Dienstleistungen zu schaffen. Das Bestreben zahlreicher Unternehmen ist es, neue, skalierbare Lösungen zu entwickeln und damit Unternehmenswachstum zu erreichen. Jedoch ist eine derartige Entwicklung mit einigen Herausforderungen verbunden. Diese Arbeit beschäftigt sich mit den Möglichkeiten der Skalierung IT-basierter Dienstleistungen durch die Anwendung von Serviceentwicklungsmodellen und -methoden am Beispiel der Verwertungs- und Entsorgungsindustrie. Zunächst werden dazu IT-basierte Dienstleistungen sowie die Skalierbarkeit im betriebswirtschaftlichen Kontext betrachtet, was eine Diskussion von Geschäftsmodellen und Wachstumsstrategien einschließt. Anschließend werden verschiedene Vorgehensmodelle und Methoden der Dienstleistungsentwicklung diskutiert. Zusätzlich zu den theoretischen Erkenntnissen wird eine empirische Untersuchung durchgeführt. Ziel ist es, Herausforderungen und Potenziale bei der Entwicklung IT-basierter Dienstleistungen aufzudecken. Weiterführend wird ein Best-Practice-Beispiel einer erfolgreichen Skalierung IT-basierter Dienstleistungen vorgestellt. Das Ergebnis dieser Arbeit ist ein Vorgehens-Rahmenmodell zur Entwicklung IT-basierter Dienstleistungen, welches als Skalierungs-Leitfaden gesehen werden kann. Dieses Modell beinhaltet Methoden und Handlungsempfehlungen, um die ermittelten Herausforderungen zu bewältigen und mögliche Potenziale zu nutzen. Als größte Herausforderung stellte sich das Finden der Features und Services mit dem größten Kundennutzen heraus. Das Modell sieht als wesentliche Elemente des Entwicklungsprozesses IT-basierter Dienstleistungen die durchgängige Integration relevanter Stakeholder sowie den Minimum Viable Product Ansatz vor. Weitere wesentliche Faktoren stellen Partnerschaften und Kooperationen sowie eine EarlyMover-Strategie dar.
Web analytics has been used to track visitor behavior on web sites since the early 1990s with the goal to understand the visitors and to constantly improve the web site. Although it is also possible to track users of single page applications, a special form of web application that behaves like a desktop application, there are some limitations. The aim of this work is to identify gaps in web analytics solutions regarding single page applications. Subsequently the impact of resolving such a gap on the intended long-term usage of a given web analytics system, the socalled Continuance Intention, is evaluated. Initially, an integration of an open-source web analytics framework with a commercial single page application is performed. Based on the gained experience and by conducting a literature research, a list of 13 gaps including potential solutions is identified. A group of experts is ranking them according to their impact on the usefulness of the web analytics solution. The resulting top item is the custom metrics feature, which allows to track application-specific metrics by configuring them generically in the web analytics system. It is subsequently developed and evaluated by means of an online survey using an adapted version of the Expectation-Confirmation Model. A linear regression model is based on the two resulting latent factors Perceived Usefulness and Continuance Intention. The statistical analysis of the model shows that a specific improvement of a web analytics solution with the goal to enhance the usefulness of this information system increases the intention to keep using this software in the long-term.
Microblogging ist im Bereich der Online-Erotik immer noch nicht vorherrschend. Das Ziel dieser Arbeit ist herauszufinden, wie der Einsatz von Microblogging im Bereich Erotik gegenüber kostenlosen Pornoseiten hinsichtlich der Benutzerakzeptanz zu beurteilen ist. Es soll ein Usability-Test durchgeführt werden, um eventuelle Probleme des Artefakts ausfindig zu machen. Diese Probleme sollen behoben werden bevor das Feldexperiment stattfindet. Potentielle Einflussfaktoren sollen im Rahmen einer Umfrage evaluiert werden. Die Umfrage soll das Phänomen Microblogging auf Facebook untersuchen. Im Rahmen eines Feldexperiments wird eine Microblogging-Plattform zum Thema Erotik mit einer herkömmlichen Pornoseite verglichen. Das Ergebnis ist, dass Microblogging genauso für den Konsum von erotischen Inhalten geeignet ist. Nur die Absprungrate der Besucher einer Microblogging-Plattform zum Thema Erotik ist im Vergleich zu einer klassischen Pornoseite höher. Zu den wichtigsten Faktoren, die die Nutzung von Microblogging über Erotik positiv beeinflussen, zählen das heimliche Beobachten von anderen Menschen im Internet, der Konsum von Pornografie und der Konsum von Online-Live-Sexshows. Es muss allerdings noch erforscht werden, ob es eine Zielgruppe gibt, die Microblogging über Erotik gegenüber dem herkömmlichen Konsum von pornografischen Inhalten, bevorzugt.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Durch den steigenden Einsatz von mobilen Geräten und mobilen Anwendungen im beruflichen Umfeld gewinnt die Verwaltung der Geräte für die Sicherstellung der Verfügbarkeit und der Datensicherheit eine immer größere Rolle. Die dafür eingesetzten Enterprise Mobility Management (EMM) Systeme wurden in den letzten Jahren hauptsächlich in großen Unternehmen verwendet und werden durch Trends wie Bring Your Own Device (BYOD) und Corporate Owned Private Enabled (COPE) sowie rechtliche Anforderungen, wie der Datenschutz Grundverordnung (DSGVO), auch bei kleinen und mittleren Unternehmen (KMU) immer stärker nachgefragt. In dieser Arbeit wird der Einsatz von EMM Systemen in KMU näher untersucht. Dazu wird eine Literaturrecherche durchgeführt und darauf aufbauend eine Marktanalyse des EMM Marktes in KMU in Österreich durchgeführt. In der Marktanalyse wird eine Übersicht über vorhandene Anbieter und deren Produkte gegeben und anschließend das Potential des EMM Marktes anhand vorhandener Studien erörtert. In der dabei durchgeführten quantitativen Umfrage werden relevante Einflussfaktoren auf die Annahme von EMM in KMU identifiziert. Ausgehend von diesen Erkenntnissen werden Hypothesen über die Annahme aufgestellt und für dessen Evaluierung wird ein Prototyp für die Verbesserung der Adoption der Technologie in KMU entwickelt. In dem entwickelten Prototyp wurden zwei aus den Hypothesen abgeleitete Funktionen umgesetzt. Die erste Funktion verbessert den Bestellprozess für neue Mobilgeräte der Mitarbeiterinnen und Mitarbeiter. Die zweite Funktion bietet den Mitarbeitern eine detaillierte, transparente Kostendarstellung. Die Evaluierung des Prototyps erfolgt mittels Interview von Expertinnen und Experten aus dem Bereich von mobilen Geräten und mobilen Anwendungen. Die zusätzlichen Funktionen stellen eine Möglichkeit dar, um die Mitarbeiterzufriedenheit zu erhöhen und damit die Annahme von EMM Systemen in KMU zu verbessern.
Codequalität sowie deren Sicherung und Überprüfung sind wichtige Aspekte heutiger Softwareentwicklungsprozesse und werden von zahlreichen Experten aus Literatur und Praxis als essentieller Faktor für ein langfristiges Bestehen von Softwareprojekten angesehen. Um diese Theorie in der Praxis deduktiv zu prüfen, war es Ziel dieser Arbeit, tatsächliche Auswirkungen ausgewählter Maßnahmen zur Steigerung von Codequalität auf den Wartungs- und Folgeaufwand von Software zu untersuchen. Hierfür wurden zuerst wesentliche Aspekte von Software- und Codequalität explorativ, argumentativ-deduktiv analysiert. Als Ergebnis dieser Analyse wurden grundlegende Merkmale und Kriterien von Softwarequalität sowie Prinzipien, Standards, Methoden und Muster für eine strukturierte Verbesserung von Codequalität vorgestellt. Weiters wurden Metriken zur Messung und Bewertung von Sourcecode sowie Werkzeuge, welche Metriken und andere Aspekte von Codequalität messen, skizziert. Anschließend wurden im Zuge eines Experiments vier funktional idente Programmversionen unterschiedlicher Codequalität Entwicklern zur Bearbeitung vorgelegt und Ergebnisse sowie die benötigte Zeit erhoben und ausgewertet. Hierbei wurde allen Teilnehmern dieselbe Aufgabenstellung gegeben, welche das Beheben von Bugs und das Implementieren einer Erweiterung vorsah. Zudem wurden die Ergebnisse in Expertengesprächen auf Gültigkeit und Plausibilität geprüft. Das Ergebnis konnte – entgegen angenommener Erwartungen – keine eindeutigen Auswirkungen belegen, aber diese auch nicht ausschließen, da die erhaltenen Ergebnisse unter Berücksichtigung üblicher Streuung für alle Programmversionen auf einem ähnlichen Zeitniveau waren. Lediglich in der Qualität der Resultate gab es einige Unterschiede. Anschließende Expertengespräche und die Diskussion der Ergebnisse kamen zu dem Schluss, dass die beobachteten Resultate für die Größe der Untersuchung durchaus plausibel erscheinen, jedoch für beobachtbare Auswirkungen eine deutlich größere Untersuchung notwendig wäre.
Die vorliegende Arbeit beschäftigt sich mit der Lernfähigkeit von Data Mining Modellen im Bereich des Smart Homes. Es wird der Frage nachgegangen, welche Auswirkungen ein kontinuierliches Training von Data Mining Modellen zur intelligenten Automatisierung der Beleuchtungssteuerung in einem Smart Home, auf die Fehlerrate des Data Mining Modells hat. Ziel ist es zu klären, ob durch kontinuierliches Training, auch zeitnah, die Fehlerrate von Data Mining Modellen zur Beleuchtungssteuerung im Smart Home verbessert werden kann. Zu Beginn werden die Begriffe Data Mining und Machine Learning mit Hilfe einer Literaturrecherche, im Bereich des Smart Homes, definiert und ein Überblick über die Funktionsweise von Data Mining geschaffen, sowie das allgemeine Vorgehen zur Implementierung einer Data Mining Anwendung anhand des standardisierten CRISP-DM Prozesses erörtert. Anschließend wurden für die vorliegende Arbeit geeignete Data Mining Verfahren mit Hilfe von Literatur erörtert. Aus diesen Data Mining Verfahren und den erhobenen Anforderungen an den Anwendungsfall der vorliegenden Arbeit, wurde das Data Mining Verfahren der Entscheidungsbäume für die Umsetzung des Prototyps ausgewählt. Im zweiten Teil der Arbeit wurde mit Hilfe des CRISP-DM Prozesses, ein Prototyp zur intelligenten Automatisierung der Beleuchtungssteuerung entwickelt und in ein bestehendes Smart Home integriert. Dieser Prototyp wurde im Zuge einer einfachen Fallstudie evaluiert. Dabei wurde die Fallstudie in zwei Iterationen evaluiert. In der ersten Iteration wurden einmalig trainierte Data Mining Modelle evaluiert und in der zweiten Iteration wurden kontinuierlich trainierte Data Mining Modelle evaluiert. Basierend auf der Auswertung der Daten und dem Vergleich der Vorhersageleistung, konnte die Erkenntnis gewonnen werden, dass ein kontinuierliches Training zeitnah zu einer Verbesserung der Vorhersageleistung beitragen kann.
Die Cloud ist ein Thema, das Unternehmen durch die Digitalisierung mehr betrifft denn je. Während sie im Privatleben bereits Einzug in den Alltag gefunden hat, benötigen die Unternehmen noch etwas Zeit. Speziell in Bezug auf ERP-Systeme, die die sensibelsten Daten des Unternehmens beinhalten, verwehren sie sich diesem Trend. Dies liegt vor allem an der Sicherheit der Cloud. In dieser Arbeit wird darum untersucht, welche konkreten Sicherheitsbedenken die Unternehmen haben, wenn es darum geht, ihr ERP-System in der Cloud zu betreiben, und wie diese vermindert werden können. Zur Datenerhebung wurden Personen aus der IT interviewt, worauf anschließend eine Liste von Bedenken aus ihren Aussagen erstellt wurde. Die Priorisierung ergab, dass eine performante Internetverbindung und das Vertrauen in den Cloud-Anbieter die größten Bedenken im Bereich der IT-Sicherheit auslösen. Durch die technologischen Möglichkeiten in der Cloud können diese Bedenken jedoch vermindert werden, indem beispielsweise ein entsprechendes Verfügbarkeitsmodell gewählt oder eine private Verbindung zum Cloud-Anbieter aufgebaut wird. Dennoch ist es nicht möglich, alle Bedenken auszuräumen, da ab einem gewissen Punkt kein Einblick in und kein Einfluss mehr auf die Funktionalität der Cloud vorgenommen werden kann. Dies zeigt, dass vor allem Vertrauen die Basis für den sicheren Betrieb des ERP-Systems in der Cloud ist. Mit der vorliegenden Arbeit soll den Unternehmen gezeigt werden, dass sich ihre Bedenken leicht vermindern lassen.
Die Revolution in der Industrie hält nunmehr seit über 200 Jahren an. Mit Beginn des 21. Jahrhunderts wurde durch die Entwicklung von Cyber-physischen Systemen die vierte und bislang jüngste Revolutionsstufe eingeleitet. Eine datentechnische Vernetzung der Anlagen untereinander und eine zunehmende Maschinenkommunikation erhöhen die Gesamtkomplexität des Systems und erschweren dadurch die Service- und Instandhaltungsarbeiten. Die Instandhaltung, welche mittlerweile maßgeblich zum Unternehmenserfolg und zur Wettbewerbsfähigkeit beiträgt, hat an Komplexität zugenommen und fordert nicht zuletzt auch durch die Digitalisierung in der Industrie ein Umdenken hinsichtlich der Ausbildung und Qualifikation von Service- und InstandhaltungsmitarbeiterInnen. Digitale Assistenzsysteme bilden eine Schnittstelle für eine Mensch-Maschine-Interaktion und sollen die MitarbeiterInnen bei komplexen Tätigkeiten unterstützen. Diese Masterarbeit zeigt, inwiefern der Einsatz eines Live-Video-Assistenzsystems Service- und InstandhaltungsmitarbeiterInnen unterstützen und den Problemlösungsprozess positiv beeinflussen kann. Im Zuge der Theorieaufarbeitung im ersten Teil dieser Arbeit werden Hypothesen formuliert, welche im zweiten Teil der Arbeit durch einen „mixed-method“-Ansatz geprüft werden, wozu Daten aus österreichischen, international agierenden, Unternehmen erhoben werden. Die Ergebnisse der Untersuchung zeigen, dass Live-Video-Assistenzsysteme wie z.B. EVOCALL nicht zielführende Kommunikationskanäle ersetzen können und dass durch einen „work-shadowing“-Ansatz die Vor-Ort-Präsenz von ExpertInnen verringert sowie die Reparaturzeiten reduziert werden können. Die Erhebung hat gezeigt, dass solide Ausbildungsmaßnahmen für die Service- und InstandhaltungsmitarbeiterInnen eine Herausforderung für Unternehmen darstellen, welcher sie sich trotz Einsatz eines Live-Video-Assistenzsystems weiterhin stellen werden müssen.