ja
Refine
Year of publication
Document Type
- Master's Thesis (1026)
- Working Paper (58)
- Part of a Book (6)
- Article (4)
- Book (1)
- Conference Proceeding (1)
Is part of the Bibliography
- yes (1096)
Keywords
- Hochschullehre (56)
- Didaktik (55)
- Digitalisierung (46)
- Geschäftsmodell (44)
- Vertrieb (38)
- Personalwesen (27)
- Online-Marketing (23)
- Künstliche Intelligenz (22)
- Social Media (21)
- Führung (20)
Institute
- Informationstechnologien & Wirtschaftsinformatik (215)
- Automatisierungstechnik-Wirtschaft (178)
- Innovationsmanagement (172)
- Rechnungswesen & Controlling (145)
- Sales Management (86)
- Digital Marketing Management (70)
- International Marketing (54)
- Unternehmensmanagement (39)
- Financial Accounting (34)
- Software Engineering Leadership (24)
The goal of this thesis is to find a process that enables Agile development for projects involving hardware and software. This process is then verified in the course of a project to evaluate the impact on product development. The aim is to find a way for product development to work in an Agile setup to make use of the advantages that come with Agile project planning and execution. The established methodologies such as Scrum and Kanban focus solely on software development and therefore do not work for development of hardware components without major adjustments in the framework. The process that is set up shall take incentive by existing frameworks but shall also work for both hardware and software devel-opment at the same time. The process is constructed by using an already established framework for software development and aimed at including hardware in iterations. As issues occur in setup of the process, adjustments are to be made until both hardware and software were aligned again. The verification of the method is carried out in the development of a new product for the Atomic Force Microscope “Tosca 400” of Anton Paar. This product includes the disciplines of Mechanics, Electronics, FPGA, Firmware and Software and is therefore qualified to verify the process. Releases in iterations shall guarantee high quality standards at the final release and enable the customer representative to request new or altered features during the project in order to make the product competitive. The new process is able to achieve several positive effects. The project planning efforts are lowered while the estimation accuracy in both effort and release dates are significantly higher. The customer representative is included into the process from the beginning which resulted in alignment of the product vision in an early state. This new process must be further verified in a bigger project to ensure that process also works in different scales. Flexibility in management levels can pave the way for future implementations and must adjust to a new set of deliverables in reviews.
Regalbediengeräte haben einen sehr volatilen Energiebedarf, welcher in weiterer Folge zu hohen Lastspitzen führt. Neben dem reinen Stromverbrauch einer Anlage haben auch diese Energiebedarfsspitzen Auswirkungen auf die Kosten für die Energieversorgung und die dafür notwendige Infrastruktur. Zur Reduktion des Spitzenbedarfs einer Anlage mit mehreren Regalbediengeräten ist eine entsprechende Koordination der Geräte in Form eines Lastmanagements notwendig. Ziel dieses Lastmanagements ist es, die Überlagerung von Lastspitzen der einzelnen Regalbediengeräte zu verhindern. Im Rahmen dieser Masterarbeit wurden verschiedene Konzepte für ein entsprechendes Lastmanagement erarbeitet. Diese Konzepte wurden als zusätzliches Softwaremodul in die bestehende Standardsoftware für Regalbediengeräte von Jungheinrich Systemlösungen integriert. Die Wirksamkeit und Effizienz des Lastmanagements wurde im realen Anwendungsumfeld geprüft und verifiziert. Dabei wurden sowohl die mögliche Reduktion der Energiebedarfsspitzen als auch die Auswirkung auf die Systemleistung betrachtet. Als Ergebnis entstanden verschiedene Lösungen, die den Energiebedarf bzw. die Systemleistung unterschiedlich stark beeinflussen. Dadurch ist es möglich, abhängig von den Anforderungen der KundInnen, das jeweils passende Lösungskonzept anzubieten.
Das Wachstum des Onlinehandels setzt den stationären Handel zunehmend unter Druck. Um das Einkaufen in Geschäften für Kunden attraktiver zu gestalten und die Effizienz zu steigern setzten Händler vermehrt auf den Gebrauch von Technik. Dieser Wandel schafft auch Möglichkeiten für den Einsatz von Technologien aus dem Bereich der Intralogistik. Das Ziel der vorliegenden Arbeit ist die Identifizierung konkreter Anwendungsmöglichkeiten der Technologien im stationären Handel. Dazu werden Geschäfte unterschiedlicher Branchen hinsichtlich der Funktionen deren Flächen, sowie den Eigenschaften von Produkten untersucht. Im darauffolgenden Schritt erfolgt die Analyse ausgewählter Technik bezüglich der Anforderungen des Handels. Über eine Nutzwertanalyse erfolgt danach die Auswertung von Anforderungen und Fähigkeiten. Durch die Gegenüberstellung lässt sich an den Kreuzungspunkten erkennen, welche Technologie die jeweiligen Anforderungen zu einem hohen Grad erfüllen. Diese bilden die Use Cases und entsprechen dem Ergebnis der vorliegenden Arbeit. Beschrieben werden sie durch die Eignung der Technologie für die Kombination aus Flächen- und Produkteigenschaften. Zusätzlich dazu werden Handlungsempfehlungen für den effizienten Einsatz der Technik in Bezug auf die möglichen Leistungskennzahlen gegeben.
Understanding user behaviors and preferences is crucial in today’s digital landscape, driving the need for automated persona generation. This thesis explores the potential of topic modeling and sentiment analysis to enhance data-driven persona creation. Analyzing a corpus of 676,000 tweets from 6,760 Twitter users (now x.com1), the study applies BERTopic for topic modeling and VADER for sentiment analysis to identify distinct themes and emotional tendencies in usergenerated content. A key finding is the significant impact of pre-processing, which improves topic coherence andinterpretability, contradicting claims that BERTopic performs equally well on raw data. The results indicate that bots predominantly generate neutral, task-oriented content, while humanusers – particularly female users – express more varied and emotionally rich sentiment.Integrating topic modeling and sentiment analysis enables multidimensional persona creationby combining thematic interests with emotional characteristics, emphasizing the value of author profiling in data-driven persona generation.This thesis highlights the potential of text mining techniques in persona creation while acknowledging challenges such as sentiment misclassification and the differentiation between bots and humans. Moreover, the findings highlight the need for structured datasets to enhance large language model-based persona descriptions, ensuring greater accuracy and coherence.Future research should explore alternative machine learning models, refine clustering methods, and assess cross-platform applicability. The combination of topic modeling and sentiment analysis offers promising opportunities for automating persona generation, enhancing e.g.,targeted marketing, and improving social media analysis.
Diese Arbeit behandelt die Digitalisierung von Vertragsprozessen durch die qualifizierte elektronische Signatur (QES), um Entscheidungsträgern und Entscheidungsträgerinnen eine empirische Entscheidungsgrundlage zu bieten. Dazu ist die Definition des Werts unter Zuhilfenahme einer Monte Carlo Simulation vorhergesagt. Zunächst sind Grundbegriffe zu Prozessmanagement und -modellierung, Simulationsmodellen, Dokumentendigitalisierung sowie der digitalen Signatur dargelegt. Abschließend ist der Wert der Signatur als einseitiges Optimierungspotenzial produktiver Zeitersparnis in Euro definiert. Der zweite Abschnitt definiert den stereotypischen Prozess sowie die rechtlichen, technischen und wirtschaftlichen Rahmenbedingungen für Digitalisierungswerkzeuge inklusive der kritischen Reflektion alternativer Ansätze. Die QES hat keine signifikante Alternative innerhalb dieser Arbeit. Im quantitativen Experiment dienen typische österreichische Unternehmen sowie deren signaturrelevante Dokumente mit Daten aus Expertenschätzungen, verfügbarere Literatur sowie nicht veröffentlichten Daten eines Signaturanbieters als Basis für eine Simulation der Prozessdurchlaufzeiten. Die darauf basierende Vorhersage des Werts mittels der Monte Carlo Simulation, die digitale und analoge Zeitersparnis gegenübergestellt, weist eine hohe Vorhersagekraft, speziell für ein typisches Unternehmen auf, wodurch die Forschungsfrage mit einem zuverlässigen Wert beantwortet ist. Es sind Empfehlungen für weitere Untersuchungen mit anderen Modellen sowie Nebenerkenntnisse dargelegt. Die Ergebnisse der Arbeit dienen als Entscheidungsgrundlage für Entscheidungsträger und sollen die Digitalisierung weiter vorantreiben.
Die vorliegende Masterarbeit mit dem Titel Evaluierung der Einsatzmöglichkeiten von E-Learning-Systemen im B2B Vertrieb“ untersucht die Identifizierung und Gewichtung von Kriterien zur Bewertung von E-Learning-Systemen im Business-to-Business (B2B)-Vertriebsumfeld. Angesichts der wachsenden Bedeutung digitalen Lernens im Corporate Learning trägt diese Studie dazu bei, eine bestehende Forschungslücke in der Bewertung von E-Learning-Systemen für das Vertriebsumfeld und Performance-Steigerungen in der Branche zu adressieren. Die Untersuchung basiert auf einem qualitativen Forschungsansatz, welcher eine KI-gestützte Literaturrecherche sowie Befragungen von Personen mit Fachexpertise nach dem Kano-Modell umfasst. Branchenspezifische Bewertungskriterien wurden aus der Fachliteratur abgeleitet und anhand der Einschätzungen erfahrener B2B-Vertriebsexpertinnen und -experten gewichtet. Der Funktionsumfang von zehn E-Learning-Systemen wurde mit einer dreistufigen Skala bewertet, um Objektivität und Vergleichbarkeit sicherzustellen. Die Ergebnisse zeigen, dass Absorb LMS den umfangreichsten ungewichteten Funktionsumfang bietet. Nach der fachspezifischen Gewichtung deutet die Analyse darauf hin, dass führende E-Learning-Systeme Funktionen priorisieren, die von Experten und Expertinnen aus dem B2B-Vertrieb geschätzt werden. Diese Arbeit identifi-ziert19 fundierte, branchenspezifisch gewichtete Kriterien zur Bewertung von E-Learning-Systemen imB2B-Vertrieb. Die Ergebnisse legen nahe, dass aktuelle Plattformen grundsätzlich für den Einsatz in diesem Bereich geeignet sind. Gleichzeitig wird weitere empirische Forschung empfohlen, um die praktische Anwendbarkeit der Kriterien zu validieren und bestehende Auswahlprozesse weiter zu optimieren.
Mit der zunehmenden Verbreitung generativer KI-Tools wie ChatGPT und GitHub Copilotin der modernen Softwareentwicklung steigt das Potenzial für eine grundlegende Veränderung verschiedener Entwicklungsprozesse. Diese Arbeit untersucht die Faktoren, die die Akzeptanz und Nutzung generativer KI-Tools durch Entwickler*innen in agilen Softwareentwicklungsteams beeinflussen. Auf Grundlage der Unified Theory of Acceptance and Use of Technology (UTAUT) und einschlägiger Forschungsergebnisse wurde eine quantitative Online-Umfrage mit 352Entwickler*innen durchgeführt. Die Ergebnisse zeigen, dass die Leistungserwartung der stärkste Treiber der Verhaltensabsicht ist – insbesondere die erwartete Steigerung von Effizienz und Produktivität. Auch die Aufwandserwartung und der soziale Einfluss haben einen positiven, jedoch geringeren Effekt auf die Nutzungsabsicht. Bei der Aufwandserwartung fallt insbesondere der wahrgenommene Aufwand für die Überprüfung und Korrektur generierten Codes ins Gewicht, während beim sozialen Einfluss externe Branchentrends eine stärkere Wirkung haben als interne Vorgaben. Neben der Verhaltensabsicht beeinflussen auch begünstigende Bedingungen das tatsächliche Nutzungsverhalten – insbesondere eine unterstützende technische Infrastruktur und organisatorische Maßnahmen wie Schulungen. Überraschenderweise zeigt sich ein negativer Zusammenhang zwischen der Anwendung agiler Praktiken und der Nutzung generativer KI-Tools, während entwicklungsnahe Tätigkeiten wie Code-Refactoring einen positiven Zusammenhang mit dem Nutzungsverhalten aufweisen. Die Erkenntnisse liefern praxisrelevante Implikationen: Unternehmen sollten nicht nur den Mehrwert generativer KI-Tools kommunizieren, sondern auch gezielte Unterstützung und Schulungen zur effektiven Nutzung bereitstellen. Zudem besteht weiterer Forschungsbedarf zur optimalen Integration generativer KI-Tools in agile Entwicklungsprozesse.
Die zunehmende Verbreitung von Large Language Models (LLMs) in Unternehmenskontexten eröffnet neue Möglichkeiten zur Automatisierung von Wissensabruf, Inhaltserstellung und Entscheidungsunterstützung. Gleichzeitig stellt ihre Implementierung hohe technische Anforderungen an die bestehende IT-Infrastruktur und Datenarchitektur von Unternehmen. Diese Arbeit entwickelt ein strukturiertes Framework, das Unternehmen bei der technischen Vorbereitung auf die Integration von LLMs unterstützt. Im Fokus der Untersuchung stehen die zentralen technischen Anforderungen, die Unternehmen erfüllen müssen, um LLMs gezielt in spezifische Aufgaben innerhalb ihrer Geschäftsprozesse zu integrieren. Ein besonderer Schwerpunkt liegt auf der Analyse unternehmensinterner Datenformate und -strukturen sowie den notwendigen Vorverarbeitungsschritten zur Sicherstellung der Kompatibilität mit LLMs. Darüber hinaus werden Best Practices für die Archivierung und Bereitstellung von Daten identifiziert. Ergänzend erfolgt eine vergleichende Analyse von On-Premises- und Cloud-basierten Hosting-Lösungen sowie von selbst-gehosteten und extern-gehosteten LLMs, wobei Skalierbarkeit und Sicherheit als zentrale Bewertungskriterien herangezogen werden. Ein weiterer Fokus der Arbeit liegt auf Retrieval-Augmented Generation (RAG) als Methode zur Optimierung der LLM-Leistung durch die Nutzung unternehmensspezifischer Wissensbestände. Die Arbeit folgt der Design Science Research Methodologie und kombiniert eine umfassende Literaturanalyse mit leitfadengestützten Experteninterviews, die primär zur Evaluation und Feinjustierung des entwickelten Frameworks dienen. Die Evaluation überprüft dessen Anwendbarkeit in verschiedenen Branchen und dessen Potenzial, IT-Abteilungen und Entscheidungsträger bei der strategischen Einführung von LLMs zu unterstützen. Die Ergebnisse dieser Arbeit sollen praktische Empfehlungen für die technische Implementierung von LLMs in Unternehmen bieten. Sie berücksichtigen sowohl infrastrukturelle als auch datenspezifische Anforderungen und sollen eine Entscheidungsgrundlage für die Einführung und Nutzung von LLMs liefern.
Diese Masterarbeit untersucht den Einsatz von Künstlicher Intelligenz im Recruiting-Prozess von Großunternehmen in der österreichischen IT-Branche. Vor dem Hintergrund des zunehmenden Fachkräftemangels in der IT-Branche beleuchtet die Arbeit den Nutzen und die Herausforderungen beim Einsatz von KI-gestützten Recruiting-Tools. Die Untersuchung basiert auf einem zweistufigen Forschungsansatz. Zunächst wurde eine umfassende Literaturrecherche durchgeführt, um die aktuelle Fachkräftesituation, die Entwicklung moderner Recruiting-Strategien sowie die theoretischen Grundlagen von KI im Personalwesen darzustellen. Dabei wurden zentrale Technologien wie Matching-Tools, Chatbots, Workforce Analytics und automatisierte Assessments ebenso betrachtet wie rechtliche und ethische Aspekte, insbesondere in Bezug auf Datenschutz, Transparenz und Diskriminierungsrisiken. Ergänzend wurden qualitative Experteninterviews mit Fachleuten aus den Bereichen IT und Human Resources durchgeführt. Die Auswertung der Interviews erfolgte anhand der qualitativen Inhaltsanalyse nach Mayring und lieferte praxisnahe Einblicke in Chancen, Risiken und Erfolgsfaktoren bei der Implementierung von KI-gestützten Recruiting-Tools. Die Ergebnisse zeigen, dass KI das Recruiting deutlich effizienter gestalten kann - insbesondere in den Bereichen Kandidatenscreening, Kommunikation und datenbasierte Entscheidungsfindung. Gleichzeitig bestehen weiterhin Bedenken hinsichtlich algorithmischer Verzerrung, mangelnder Nachvollziehbarkeit und rechtlicher Unsicherheiten. Der verantwortungsvolle Einsatz von KI erfordert daher klare ethische Leitlinien und ein stabiles rechtliches Fundament. Diese Arbeit liefert sowohl theoretische Grundlagen als auch praxisorientierte Handlungsempfehlungen für Unternehmen, die KI im Recruiting einsetzen möchten, um im Wettbewerb um IT-Fachkräfte zukunftsfähig zu bleiben.