<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0">
  <channel>
    <title>https://opus.campus02.at</title>
    <description>OPUS documents</description>
    <link>https://opus.campus02.at/index/index/</link>
    <pubDate>Mon, 01 Dec 2025 09:49:21 +0100</pubDate>
    <lastBuildDate>Mon, 01 Dec 2025 09:49:21 +0100</lastBuildDate>
    <item>
      <title>Der Einsatz von Large Language Models zur Förderung der IT-Security und Anwendung von Best Practices in IT-Netzwerkumgebungen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1251</link>
      <description>Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.</description>
      <author>Manuel Walzl</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1251</guid>
      <pubDate>Mon, 01 Dec 2025 09:49:21 +0100</pubDate>
    </item>
    <item>
      <title>Albanian Social Media Sentiment: A Machine Learning Perspective</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1246</link>
      <description>Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.</description>
      <author>Henri Pajuni</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1246</guid>
      <pubDate>Fri, 28 Nov 2025 14:18:38 +0100</pubDate>
    </item>
    <item>
      <title>Einsatz von generativen KI-Tools in agilen Softwareentwicklungsteams</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1162</link>
      <description>Mit der zunehmenden Verbreitung generativer KI-Tools wie ChatGPT und GitHub Copilotin der modernen Softwareentwicklung steigt das Potenzial für eine grundlegende Veränderung verschiedener Entwicklungsprozesse. Diese Arbeit untersucht die Faktoren, die die Akzeptanz und Nutzung generativer KI-Tools durch Entwickler*innen in agilen Softwareentwicklungsteams beeinflussen. Auf Grundlage der Unified Theory of Acceptance and Use of Technology (UTAUT) und einschlägiger Forschungsergebnisse wurde eine quantitative Online-Umfrage mit 352Entwickler*innen durchgeführt. Die Ergebnisse zeigen, dass die Leistungserwartung der stärkste Treiber der Verhaltensabsicht ist – insbesondere die erwartete Steigerung von Effizienz und Produktivität. Auch die Aufwandserwartung und der soziale Einfluss haben einen positiven, jedoch geringeren Effekt auf die Nutzungsabsicht. Bei der Aufwandserwartung fallt insbesondere der wahrgenommene Aufwand für die Überprüfung und Korrektur generierten Codes ins Gewicht, während beim sozialen Einfluss externe Branchentrends eine stärkere Wirkung haben als interne Vorgaben. Neben der Verhaltensabsicht beeinflussen auch begünstigende Bedingungen das tatsächliche Nutzungsverhalten – insbesondere eine unterstützende technische Infrastruktur und organisatorische Maßnahmen wie Schulungen. Überraschenderweise zeigt sich ein negativer Zusammenhang zwischen der Anwendung agiler Praktiken und der Nutzung generativer KI-Tools, während entwicklungsnahe Tätigkeiten wie Code-Refactoring einen positiven Zusammenhang mit dem Nutzungsverhalten aufweisen. Die Erkenntnisse liefern praxisrelevante Implikationen: Unternehmen sollten nicht nur den Mehrwert generativer KI-Tools kommunizieren, sondern auch gezielte Unterstützung und Schulungen zur effektiven Nutzung bereitstellen. Zudem besteht weiterer Forschungsbedarf zur optimalen Integration generativer KI-Tools in agile Entwicklungsprozesse.</description>
      <author>Raphael Pansi</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1162</guid>
      <pubDate>Mon, 30 Jun 2025 14:29:42 +0200</pubDate>
    </item>
    <item>
      <title>Einsatz von Künstlicher Intelligenz im Recruiting-Prozess</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1159</link>
      <description>Diese Masterarbeit untersucht den Einsatz von Künstlicher Intelligenz im Recruiting-Prozess von Großunternehmen in der österreichischen IT-Branche. Vor dem Hintergrund des zunehmenden Fachkräftemangels in der IT-Branche beleuchtet die Arbeit den Nutzen und die Herausforderungen beim Einsatz von KI-gestützten Recruiting-Tools. Die Untersuchung basiert auf einem zweistufigen Forschungsansatz. Zunächst wurde eine umfassende Literaturrecherche durchgeführt, um die aktuelle Fachkräftesituation, die Entwicklung moderner Recruiting-Strategien sowie die theoretischen Grundlagen von KI im Personalwesen darzustellen. Dabei wurden zentrale Technologien wie Matching-Tools, Chatbots, Workforce Analytics und automatisierte Assessments ebenso betrachtet wie rechtliche und ethische Aspekte, insbesondere in Bezug auf Datenschutz, Transparenz und Diskriminierungsrisiken. Ergänzend wurden qualitative Experteninterviews mit Fachleuten aus den Bereichen IT und Human Resources durchgeführt. Die Auswertung der Interviews erfolgte anhand der qualitativen Inhaltsanalyse nach Mayring und lieferte praxisnahe Einblicke in Chancen, Risiken und Erfolgsfaktoren bei der Implementierung von KI-gestützten Recruiting-Tools. Die Ergebnisse zeigen, dass KI das Recruiting deutlich effizienter gestalten kann - insbesondere in den Bereichen Kandidatenscreening, Kommunikation und datenbasierte Entscheidungsfindung. Gleichzeitig bestehen weiterhin Bedenken hinsichtlich algorithmischer Verzerrung, mangelnder Nachvollziehbarkeit und rechtlicher Unsicherheiten. Der verantwortungsvolle Einsatz von KI erfordert daher klare ethische Leitlinien und ein stabiles rechtliches Fundament. Diese Arbeit liefert sowohl theoretische Grundlagen als auch praxisorientierte Handlungsempfehlungen für Unternehmen, die KI im Recruiting einsetzen möchten, um im Wettbewerb um IT-Fachkräfte zukunftsfähig zu bleiben.</description>
      <author>Sarah Derler</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1159</guid>
      <pubDate>Mon, 30 Jun 2025 14:24:44 +0200</pubDate>
    </item>
    <item>
      <title>Neuronale Netze zur Zeitreihenvorhersage</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1160</link>
      <description>Das Ziel dieser Arbeit ist die Analyse des Einflusses der Trainingsdatenmenge auf die Leistungsfähigkeit neuronaler Netzwerkarchitekturen in der Zeitreihenvorhersage. Untersucht werden Recurrent Neural Network (RNN), Convolutional Neural Network (CNN) und Trans-former-Modelle, einschließlich Long Short-Term Memory (LSTM),Gated Recurrent Unit (GRU) und Temporal Convolutional Network (TCN). Ziel ist die systematische Bewertung ihrer Stärken und Schwächen in der Zeitreihenvorhersage. Dazu wurde die Design Science Research Methodology (DSRM) genutzt. Eine systematische Literaturrecherche identifizierte relevante Architekturen und Bewertungsmetriken. Anschließend wurde ein Benchmarking-Framework entwickelt, um Hyperparameter-Tuning, Training und Evaluation über verschiedene Datensätze zu standardisieren. Eine empirische Analyse unter-suchte den Einfluss variierender Datenmengen auf die Modellleistung. Die Ergebnisse zeigen, dass mehr Trainingsdaten die Vorhersagegenauigkeit verbessern, jedoch mit abnehmendem Nutzen ab einem bestimmten Schwellenwert. Der Einfluss der Datenmenge ist stark architekturabhängig: Rekurrente Modelle wie LSTMs und GRUs profitieren zunächst stark von größeren Datensätzen, erreichen jedoch einen Sättigungspunkt, an dem zusätzliche Daten keinen signifikanten Vorteil mehr bringen oder sogar Overfitting verursachen. Im Gegensatz dazu zeigen TCN- und Transformer-Modelle eine stabilere Leistung über verschiedene Trainingssplits hinweg, was auf eine höhere Robustheit in der Modellierung langfristiger Abhängigkeiten und der Anpassung an unterschiedliche Datenmengen hinweist. Auf Basis dieser Erkenntnisse leistet diese Arbeit einen methodischen Beitrag zur standardisierten Bewertung der Datenmengenabhängigkeit in der Zeitreihenvorhersage. Zukünftige Forschung sollte sich auf die Optimierung der Dateneffizienz durch adaptive Aggregation, fortgeschrittene Vorverarbeitung und Feature Engineering konzentrieren, um die Effizienz und Robustheit neuronaler Netzwerke weiter zu verbessern.</description>
      <author>Thomas Gugatschka</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1160</guid>
      <pubDate>Mon, 30 Jun 2025 14:04:21 +0200</pubDate>
    </item>
    <item>
      <title>Deep Learning bei Nutzerbewertungen von Spielen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/987</link>
      <description>Diese Arbeit beschäftigt sich damit wie Deep Neural Networks (DNN) genutzt werden können, um Videospielbewertungen auf Basis eines von Benutzer*innen geschriebenen Textes, einen Score zuzuweisen. Da es sich hierbei um von Endbenutzer*innen verfasste Bewertungen handelt, müssen für diese Arbeit einerseits Maßnahmen auf Basis von schlechter Rechtschreibung und Grammatik getroffen werden, andererseits auch derzeitige Trends wie das Review Bombing berücksichtigt werden. Um dies zu bewerkstelligen, wurde CRISP-DM als Vorgehensmodell gewählt, um die Texte mit den jeweiligen Scores zu analysieren. Ein Webcrawler wurde verwendet um Nutzerwertungen mit Text und Score von der Seite metacritic.com zu extrahieren. Diese Daten wurden dann basierend auf mehreren Faktoren gefiltert und in Trainings-, Validierungs- und Testdatensatz aufgeteilt. Alles in allem wurden insgesamt 420.000 Bewertungen für das Trainieren, Validieren und Testen der Modelle verwendet. Zwei unterschiedliche Arten von neuronalen Netzen wurden trainiert: Long-Short-Term-Memory (LSTM) und Transformer. Beide Netzwerke wurden mit leicht unterschiedlichen Testdatensätzen auf verschiedenste Parameter verglichen. Die Ergebnisse zeigen, dass Transformer LSTMs in verschiedensten Metriken entweder leicht oder sogar mit großer Signifikanz übertreffen. Weiters sind Transformer sehr viel einfacher Hardware-optimal zu trainieren, da sie für Parallelisierung konzipiert sind, was sich in den Trainingszeiten widerspiegelt.</description>
      <author>Julian Hofer</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/987</guid>
      <pubDate>Thu, 10 Apr 2025 15:34:11 +0200</pubDate>
    </item>
    <item>
      <title>Entwicklung einer Web-Anwendung für Persönlichkeitsbildung und Steigerung der emotionalen Intelligenz</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/996</link>
      <description>Der Geist bestimmt die Materie (Dispenza, 2017). Diese Masterarbeit verfolgt das Ziel, eine Verbindung zwischen Technik und Wirtschaftswissenschaft sowie psychologischen und physiologischen Ansätzen herzustellen, mit einem besonderen Fokus auf die Bewusstseins- und Persönlichkeitsforschung. Kernstück der Arbeit ist die Entwicklung und Evaluierung der ATEMversum-App, einer digitalen Plattform, die darauf abzielt, emotionale Intelligenz und persönliche Entwicklung zu fördern. Unter Anwendung des Design Science Research Ansatzes wird fortlaufend relevantes Wissen generiert, das auf anerkannten wissenschaftlichen Prinzipien basiert. Die Arbeit verknüpft tiefgründige Analysen verschiedener Wissenschaftsgebiete, um ein umfassendes und holistisches Verständnis universeller, menschlicher und technologischer Dynamiken zu erlangen. Als Essenz wird Schritt für Schritt erarbeitet, wie bewusste als auch unbewusste Emotionen, Gefühle, Gedanken, Worte, Handlungen und Gewohnheiten unser Leben beeinflussen und dadurch unsere Gegenwart und Zukunft gestalten. Der theoretische Hintergrund dient als Fundament für die praktische Umsetzung in der Web-Applikation, die komplexe Konzepte in einer benutzerfreundlichen Form präsentiert. Durch die Betrachtung angesehener Forschungen in Bezug auf Human-Computer Interaction, Usability und e-Learning können benutzerzentrierte Design-Prinzipien abgeleitet werden, die für eine erfolgreiche und iterative Entwicklung bedeutend sind. Die Evaluation der App im Rahmen eines Feldexperiments zeigt, dass eine breite Zielgruppe innerhalb kurzer Zeit eine erweiterte emotionale Wahrnehmung und Bewusstseins- und Persönlichkeitsentwicklung erreichen kann. Eine Weiterentwicklung der Applikation wird als erstrebenswert erkannt. Ein zentraler Aspekt der Arbeit ist die kritische und ganzheitliche Auseinandersetzung mit der Rolle von Daten und Informationen in der digitalen Welt und deren Auswirkungen auf die Gesellschaft und Individuen. Es wird betont, wie wichtig ein verantwortungsvoller Umgang mit diesen Ressourcen innerhalb von Informationssystemen ist. Insgesamt untermauert die Arbeit die Rolle der Wirtschaftsinformatik als eine Disziplin, die technologische Fortschritte mit menschlichen Bedürfnissen und gesellschaftlichen Zielen verknüpft. Die ATEMversum-App, verfügbar unter https://atemversum.app/#/, bleibt als Plattform für kontinuierliche Anmeldungen und Weiterentwicklungen bestehen.</description>
      <author>Christian Heit</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/996</guid>
      <pubDate>Fri, 07 Feb 2025 11:51:48 +0100</pubDate>
    </item>
    <item>
      <title>Ermittlung von Leistungsbeeinträchtigungen im DSL-Netz mit Hilfe von Machine Learning</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1019</link>
      <description>Diese Masterarbeit beschäftigt sich mit der Untersuchung von Leistungsbeeinträchtigungen in xDSL-Netzwerken durch den Einsatz von ML (Machine Learning) Methoden. Angesichts der noch immer weit verbreiteten Bedeutung einer zuverlässigen und leistungsfähigen DSL-Infrastruktur für den digitalen Alltag zielt diese Arbeit darauf ab, innovative Lösungen zur Identifizierung und Behebung von Signalstörungen zu erforschen. Durch eine umfassende Analyse der xDSL-Technologie und der bestehenden Herausforderungen im Bereich der Signalübertragung legt die Arbeit die theoretische Grundlage für den Einsatz von ML. Anschließend werden verschiedene ML-Modelle entwickelt, trainiert und evaluiert, um ihre Eignung für die automatische Erkennung und Klassifizierung von Netzwerkbeeinträchtigungen zu bestimmen. Die Ergebnisse zeigen, dass ML-basierte Ansätze das Potenzial haben, signifikante Verbesserungen in der Fehlerdiagnose und Behebung zu erzielen, was letztendlich zu einer optimierten Netzwerkleistung führt. Diese Arbeit leistet einen wichtigen Beitrag im Bereich der Netzwerkdiagnostik und öffnet neue Wege für die Anwendung von ML-Technologien in der Telekommunikationsindustrie.</description>
      <author>Christoph Moser</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1019</guid>
      <pubDate>Mon, 27 Jan 2025 14:07:40 +0100</pubDate>
    </item>
    <item>
      <title>KI Unterstützter DevOps Prozess</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/999</link>
      <description>Diese Masterarbeit erforscht die Integration künstlicher Intelligenz (KI) in die DevOps- und ITOps-Prozesse. Durch eine systematische Literaturübersicht wurden insgesamt 75 relevante Arbeiten in verschiedenen Bereichen eingehend untersucht, darunter Chancen, Herausforderungen und die verschiedenen Arten von künstlicher Intelligenz, die genutzt werden. Der Hauptfokus dieser Forschung liegt darin, eine Abbildung zu erstellen, die potenzielle KI-Integrationen innerhalb des DevOps-Prozesses aufzeigt. Zahlreiche Studien zu KI und Software- oder Betriebssystemen lösen unbeabsichtigt verschiedene Probleme in verschiedenen Phasen von DevOps. Diese Studie fasst eine bedeutende Anzahl wissenschaftlicher Arbeiten zusammen, die diese Phasen unterstützen, und fasst ihre Methoden zusammen. Dieser Ansatz bietet einen Überblick über die Unterstützung von KI für DevOps und die damit verbundenen Herausforderungen. Darüber hinaus listet diese Arbeit die häufig erwähnten Vorteile der KI-Integration sowie die verschiedenen KPIs und Metriken auf, die zur Messung des Erfolgs der KI-Methode oder der Integration selbst verwendet werden. Diese Arbeit hebt die Bedeutung hervor, zu verstehen, wie KI in DevOps und ITOps passt. Nach der Betrachtung verschiedener Studien ist klar, dass KI die Arbeitsweise dieser Prozesse erheblich verbessern kann, indem sie sie schneller und genauer macht. Die Forschung schlägt einen ganzheitlichen Ansatz vor, der nicht nur die positiven und herausfordernden Aspekte zeigt, sondern auch Möglichkeiten aufzeigt, KI in DevOps und ITOps einzusetzen und zu messen, wie gut sie funktioniert. Alle diese Ergebnisse zielen darauf ab, einen Leitfaden zu erstellen, der Fachleuten und Unternehmen dabei hilft, KI in diesem Prozessen klug und effektiv zu nutzen.</description>
      <author>Dario Wagner</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/999</guid>
      <pubDate>Tue, 21 Jan 2025 17:07:45 +0100</pubDate>
    </item>
    <item>
      <title>Detection of Epiphyseal plate fracturesby machine learning</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/673</link>
      <description>Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.</description>
      <author>Philipp Kahr</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/673</guid>
      <pubDate>Thu, 02 Nov 2023 10:57:24 +0100</pubDate>
    </item>
    <item>
      <title>Desktop- und Web-Anwendungen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/714</link>
      <description>Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.</description>
      <author>Philipp Pirker</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/714</guid>
      <pubDate>Fri, 27 Oct 2023 16:27:34 +0200</pubDate>
    </item>
    <item>
      <title>Mobile Anwendungen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/709</link>
      <description>Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.</description>
      <author>Markus Saurer</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/709</guid>
      <pubDate>Fri, 27 Oct 2023 16:16:43 +0200</pubDate>
    </item>
    <item>
      <title>Machine Learning zur präemptiven Steuerung im Smart Home</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/653</link>
      <description>Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.</description>
      <author>Stefan Raminger</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/653</guid>
      <pubDate>Fri, 27 Oct 2023 16:09:01 +0200</pubDate>
    </item>
    <item>
      <title>Portierung von Webtechnologien</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/671</link>
      <description>Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.</description>
      <author>Markos Giakoumis</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/671</guid>
      <pubDate>Fri, 27 Oct 2023 15:33:27 +0200</pubDate>
    </item>
    <item>
      <title>Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/177</link>
      <description>Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.</description>
      <author>Anett Csirmaz</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/177</guid>
      <pubDate>Fri, 27 Oct 2023 11:06:59 +0200</pubDate>
    </item>
    <item>
      <title>Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/176</link>
      <description>Videokonferenzsysteme sind ein Teilbereich der Unified Communications. Letztere beinhalten, unter anderen, auch Instantmessaging und Content Sharing und komplettieren somit die Kommunikationsmöglichkeiten. Die Masterarbeit Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen ist motiviert von verhältnismäßig teuren Lösungen am Markt und dem Spaß, sich mit computerbasierten Lösungen zu beschäftigen. Nach der Aufstellung, welche Komponenten bei einem Videokonferenzsystem beteiligt sind, werden notwendige Voraussetzungen herausgearbeitet, die für ein Full-HD-Videokonferenzsystem notwendig sind. Aus diesen Anforderungen werden unterschiedliche Umsetzungsvarianten abgeleitet. Im Anschluss wird eine mögliche Umsetzungsvariante mit einem Raspberry Pi 3 und einer Kamera, die H.264-kodierte Videodaten liefert, experimentell umgesetzt. Dabei ist es kein Ziel, eine fertige, einsetzbare Lösung zu erstellen, sondern nur, zu verifizieren, ob die Hardware fähig ist, die ihm gestellte Aufgabe zu erfüllen. Da die Latenzzeit sowohl der Audiodaten als auch der Videodaten unter 450 Millisekunden liegt, konnte die Hypothese H1 bestätigt und die Hypothese H0 widerlegt werden. Dementsprechend kann die Forschungsfrage mit der oben genannten Auswahl an Hardware beantwortet werden. Da die gemessene Latenzzeit inklusive einer höheren WAN Latenz jedoch über 300 Millisekunden liegen kann, muss zur Kenntnis genommen werden, dass die empfundene Qualität als nicht optimal wahrgenommen werden könnte. Es müsste entsprechend später festgestellt werden, ob sich diese Latenz auf dieser zugrundeliegenden Hardware weiter reduzieren lässt, oder ob es notwendig ist, eine andere Hardwarealternative in Betracht zu ziehen. Davon abgesehen, fehlt für ein einsetzbares Produkt eine Benutzeroberfläche. Auch könnte in Zukunft der Einsatz von H.265, die Steigerung der Auflösung auf 4K, sowie die Komplettierung der Features in Richtung Unified Communications von Interesse sein.</description>
      <author>Gernot Waldhauser</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/176</guid>
      <pubDate>Fri, 27 Oct 2023 11:01:20 +0200</pubDate>
    </item>
    <item>
      <title>Sharepoint 2013 Intranet Lösung für mittelständische-matrixorganisierte Unternehmen im B2G Bereich</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/183</link>
      <description>Die Bundesbeschaffung GmbH (kurz BBG) entschloss sich zur Einführung einer IntranetLösung auf Basis der Technologie SharePoint 2013. Durch die Verwendung eines Intranets im Unternehmen werden Verbesserungen in der Zusammenarbeit und in der Kommunikation erwartet. Dabei ist es wichtig eine hohe Akzeptanz bei den Stakeholdern zu erreichen. Zur Einführung eines Intranets wird ein entsprechendes Intranet-Konzept benötigt. &#13;
Das Ziel dieser Arbeit ist ein Vorgehensmodell zu entwickeln, welches praktisch anwendbar ist, um ein Intranet-Konzept auf Basis von SharePoint 2013 für mittelständisch-matrixorganisierte Unternehmen im Business to Government-Bereich zu erstellen. Dabei wird großer Wert auf die Stakeholder-Akzeptanz gelegt. &#13;
Um das Ziel zu erreichen werden zu Beginn Erläuterungen benötigt. Diese behandeln die Themen Intranet, Mittelständisch-matrixorganisierte Dienstleister im B2G Bereich und SharePoint 2013. Aus den Anforderungen an ein Intranet, welche sich aus den Erläuterungen ergaben, können im Folgenden die wesentlichen Herausforderungen abgeleitet werden. Daraus ergibt sich, dass Intranet-Projekte nicht nur aus technischen Tätigkeiten bestehen, sondern ebenso einen starken Fokus auf die Organisation des Unternehmens haben. Daher werden Methoden aus den Disziplinen Projektmanagement und Requirements Engineering verwendet und beschrieben. Die Erkenntnisse der Ausarbeitungen fließen in das Vorgehensmodell zur Erstellung von passenden Intranet-Konzepten ein. &#13;
Dieses Vorgehensmodell wurde in der Bundebeschaffung GmbH (BBG) angewandt, wobei jede Phase des Vorgehensmodells durchlaufen und dokumentiert wird. Daraus ergeben sich Anforderungen an ein Intranet, welche im Kano-Modell kategorisiert und anschließend in eine Intranet-Roadmap überführt werden. Die gesammelten Anforderungen und Rahmenbedingungen fließen dabei in den Intranet-Architektur-Vorschlag ein. Dieser stellt die Grundlage für die Entwicklung des Intranets dar. Den Abschluss der Arbeit bilden ein Resümee und ein Ausblick mit Empfehlungen für nächste Schritte.</description>
      <author>Bernhard Gradwohl</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/183</guid>
      <pubDate>Wed, 25 Oct 2023 16:15:30 +0200</pubDate>
    </item>
    <item>
      <title>Informationsextraktion unter Anwendung maschinellen Lernens zur Unterstützung eines Angebotsprozesses</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/488</link>
      <description>Die vorliegende Arbeit gibt einen Einblick in die Anwendung maschinellen Lernens zur Informationsextraktion aus natürlichsprachlichem Text. Das Ziel besteht darin, TechnikerInnen bei der Angebotslegung für Transformatoren zu unterstützen, indem Algorithmen Routineaufgaben übernehmen, und damit mehr Zeit für die Bearbeitung neuer oder besonderer Anforderungen zu schaffen. Hierzu werden einführend Fachbegriffe erklärt, um einen Überblick über das Fachgebiet zu geben. Im folgenden Theorieteil werden die Grundlagen beginnend bei relativer Wahrscheinlichkeit über endliche Automaten bis hin zu neuronalen Netzen anhand von Beispielen bearbeitet. Danach wurde im praktischen Teil der Arbeit anhand prototypischer Umsetzungen die Eignung einzelner Methoden des maschinellen Lernens getestet. Um den Entwicklungen, die im Jahr 2019 im Bereich Sprachverständnis stattfanden, Rechnung zu tragen, wurden im praktischen Teil ebenfalls Methoden des Transfer Learnings eingeführt und am Beispiel ausprobiert. Neben diesen wurden zudem softwaretechnische Aspekte, wie die Visualisierung der Daten in einer Webapplikation, prototypisch umgesetzt . Abschließend wird ein Weg aufgezeigt, der auf Basis der aus den prototypischen Umsetzungen gewonnenen Erfahrung empfehlenswert erscheint.</description>
      <author>Christopher Franz Sperl</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/488</guid>
      <pubDate>Fri, 08 Sep 2023 14:15:55 +0200</pubDate>
    </item>
    <item>
      <title>Visualisierung und virtuelle Steuerung eines Digital Twin im Elektro-Engergietechnik-Labor der FH Campus 02</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/478</link>
      <description>Als Virtual Reality wird eine Computertechnologie von künstlich geschaffenen Welten, Produkten, Anwendungen, Fähigkeiten und Fertigkeiten bezeichnet. Sie ermöglicht dem Anwender sich in eine virtuelle Welt mit der Hilfe von Virtual Reality-Brillen zu teleportieren, in der er sich nahezu frei darin bewegen kann. Der Anwender nimmt durch die Virtual-Reality Brille seine reale Umgebung nicht mehr wahr und taucht in eine unglaublich real erscheinende immersive virtuelle Welt ein. Die FH CAMPUS 02 plant ihr gesamtes Elektro-Energietechnik-Labor als virtuellen digitalen Zwilling abzubilden. Diese Abbildung soll dann das Gleiche ausführen, wie das Labor in der realen Welt dazu in der Lage ist. Das Ziel dieser Masterarbeit ist es, eine Schnittstelle über zwei Hochsprachen in C++ und C# zu entwickeln die es dem Anwender ermöglicht zwischen der realen und der virtuellen Welt wechselweise zu kommunizieren. Das Ergebnis dieser Masterarbeit ist das Programmieren einer seriellen Schnittstelle die ein Arduino Board, mit einem angeschlossenen Sensor, der die Luftfeuchtigkeit und Temperatur zyklisch ermittelt und die Werte über einen Mikrocontroller speichert, mit Unity 3D 2018 sowie Modbus-TCP verbindet. In dieser Spiele-Engine sowie über Modbus-TCP werden die Ergebnisse in analoger und digitaler Form virtuell ausgegeben und visualisiert. Über eine einfache Schaltung werden, über ein selbst hergestelltes LEDBoard für Demonstrations- und Testzwecke, die Abläufe dargestellt. Die größte Herausforderung der Umsetzung dieser seriellen Schnittstelle stellt dabei dar, dass es dafür bisher keine wissenschaftlichen Ansätze gibt.</description>
      <author>Barbara Semler</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/478</guid>
      <pubDate>Fri, 08 Sep 2023 13:55:34 +0200</pubDate>
    </item>
    <item>
      <title>Empirische Analyse des Einsatzes des Internets der Dinge in Messtechnik Bereich</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/556</link>
      <description>Diese Arbeit befasst sich mit dem Einsatz des Internets der Dinge (IoT) im Messtechnikbereich. Das Ziel dieser Arbeit ist die Feststellung der Aspekte, die für den IoT-Einsatz in der Entwicklung von Produkten bzw. Dienstleistungen zu beachten sind. Diese Arbeit wird wichtige Konzepte erläutern, um das Internet der Dinge anzuwenden, sowie die verschiedenen Arten von Technologien erklären, die im IoT verwendet werden und die Auswirkungen des IoT-Einsatzes auf Dienstleistungen und Produktion skizzieren. Es ist auch wichtig, die Risiken eines solchen IoT- Einsatzes und die Maßnahmen dagegen zu erläutern. Zum Schluss werden die wichtigsten Aspekte des IoT- Einsatzes und deren Auswirkung auf die Weiterentwicklung bzw. Neuentwicklung von Produkten und Diensten dargestellt. Die Forschungsfrage dieser Arbeit ist: „Welche Aspekte entscheiden über den Einsatz von IoT im Bereich der Messtechnik?“ Um die Forschungsfrage beantworten zu können, wurden Interviews und Umfragen mit den Entwicklern durchgeführt, die in der Firma Messtechnik GmbH &amp; CO KG arbeiten. So soll herausgefunden werden, wie das Vorwissen der Entwickler über die angewendeten Technologien bei einem IoT- Einsatz sein sollte. Darüber hinaus wurde eine Umfrage unter Kunden des Unternehmens durchgeführt, um die Auswirkungen von IoT-Anwendungen auf ihren Energieverbrauch oder Wasserverbrauch zu ermitteln. Zusätzlich sollte die Flexibilität der Zusammenarbeit mit den Kunden anhand der entwickelten/vorhandenen Produkte/Dienste oder neuer Produkte/Dienste des Unternehmens erfasst werden. Die Antwort wird darin bestehen, diese Umfragen und Interviews zu analysieren und die Ergebnisse in Tabellen und Diagrammen darzustellen. Schließlich wird klar, welche Aspekte beim Einsatz und der Anwendung des IoT auf die Messtechnik-Branche, wie z.B. Qualität, Dienstleistungserweiterung, Risikominderung und Kosten überwiegen.</description>
      <author>Mariam Abdullah</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/556</guid>
      <pubDate>Fri, 08 Sep 2023 13:16:18 +0200</pubDate>
    </item>
    <item>
      <title>Machine Learning Verfahren für Bildvergleich im Einsatzgebiet der Suche nach ähnlichen Produkten einer E-Commerce Lösung</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/551</link>
      <description>Diese Arbeit befasst sich mit dem Vergleich von unterschiedlichen Machine Learning Verfahren zur Ermittlung ähnlicher Bilder im Kontext einer Suche nach ähnlichen Produkten in E-Commerce Lösungen. Die Motivation liegt dabei in der Evaluierung möglicher Verfahren für den Einsatz in einem Produktivsystem. Das Ziel ist es, das geeignetste Verfahren bezogen auf einen spezifischen Anwendungsfall zu ermitteln. Konkret werden drei Verfahren in einer Basisvariante umgesetzt und mit geeigneten Metriken evaluiert. Ein bestehendes Datenset an realen Produktbildern wird zu Evaluierungszwecken verwendet. Kein Ziel dieser Arbeit ist es, die jeweiligen Verfahren soweit zu optimieren, sodass diese die jeweils bestmöglichen Ergebnisse zurückliefern. Auf Basis eines Experiments werden die zuvor recherchierten Verfahren anhand des Anwendungsfalles einer Suchfunktionalität nach ähnlichen Produkten evaluiert. Es kommen dabei unterschiedliche Evaluierungsmetriken zum Einsatz. Als Hauptevaluierungsmetrik der Verfahren wird die Mean Average Precision@K verwendet. Transfer Learning mit einem vortrainierten VGG16 Modell und darauf angewandtes FineTuning liefert in Bezug auf diese Metrik die besten Ergebnisse. Dahinter landet das Autoencoder Verfahren. Das Siamese Network Verfahren liefert im direkten Vergleich mit den beiden anderen die schlechtesten Ergebnisse. Dennoch eignen sich alle drei Verfahren für den untersuchten Anwendungsfall, sodass im Schnitt mindestens 50 Prozent der Suchergebnisse innerhalb der top fünf Ergebnisse relevant sind. Für einen potenziellen Einsatz in einer Produktivumgebung wäre es trotzdem erforderlich und empfehlenswert, weitere Optimierungen der dahinterliegenden Modelle vorzunehmen. Passend zur Hypothese haben die Experimente bestätigt, dass Transfer Learning trainiert mit den Bildern aus dem gegebenen Datenset bessere Ergebnisse ermöglichen kann. Weitere Forschungstätigkeiten umfassen die Optimierung der Verfahren und des Datensets sowie die Evaluierung weiterer, alternativer Verfahren beziehungsweise Kombinationen davon, die nicht Teil der vorliegenden Arbeit sind.</description>
      <author>André Gines</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/551</guid>
      <pubDate>Wed, 06 Sep 2023 11:04:41 +0200</pubDate>
    </item>
    <item>
      <title>Erstellung eines Modells zur Auswahl geeigneter Technology-enhanced Learning Tools anhand von Lerntheorien</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/547</link>
      <description>Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.</description>
      <author>Kerstin Hacker</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/547</guid>
      <pubDate>Wed, 06 Sep 2023 09:05:45 +0200</pubDate>
    </item>
    <item>
      <title>Adaption of a web analytics framework for commercial single page applications</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/397</link>
      <description>Web analytics has been used to track visitor behavior on web sites since the early 1990s with the goal to understand the visitors and to constantly improve the web site. Although it is also possible to track users of single page applications, a special form of web application that behaves like a desktop application, there are some limitations. The aim of this work is to identify gaps in web analytics solutions regarding single page applications. Subsequently the impact of resolving such a gap on the intended long-term usage of a given web analytics system, the socalled Continuance Intention, is evaluated. Initially, an integration of an open-source web analytics framework with a commercial single page application is performed. Based on the gained experience and by conducting a literature research, a list of 13 gaps including potential solutions is identified. A group of experts is ranking them according to their impact on the usefulness of the web analytics solution. The resulting top item is the custom metrics feature, which allows to track application-specific metrics by configuring them generically in the web analytics system. It is subsequently developed and evaluated by means of an online survey using an adapted version of the Expectation-Confirmation Model. A linear regression model is based on the two resulting latent factors Perceived Usefulness and Continuance Intention. The statistical analysis of the model shows that a specific improvement of a web analytics solution with the goal to enhance the usefulness of this information system increases the intention to keep using this software in the long-term.</description>
      <author>Peter Göri</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/397</guid>
      <pubDate>Mon, 04 Sep 2023 15:02:20 +0200</pubDate>
    </item>
    <item>
      <title>Lernfähigkeit von Data Mining Modellen zur Automatisierung im Bereich des Smart Homes</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/402</link>
      <description>Die vorliegende Arbeit beschäftigt sich mit der Lernfähigkeit von Data Mining Modellen im Bereich des Smart Homes. Es wird der Frage nachgegangen, welche Auswirkungen ein kontinuierliches Training von Data Mining Modellen zur intelligenten Automatisierung der Beleuchtungssteuerung in einem Smart Home, auf die Fehlerrate des Data Mining Modells hat. Ziel ist es zu klären, ob durch kontinuierliches Training, auch zeitnah, die Fehlerrate von Data Mining Modellen zur Beleuchtungssteuerung im Smart Home verbessert werden kann. Zu Beginn werden die Begriffe Data Mining und Machine Learning mit Hilfe einer Literaturrecherche, im Bereich des Smart Homes, definiert und ein Überblick über die Funktionsweise von Data Mining geschaffen, sowie das allgemeine Vorgehen zur Implementierung einer Data Mining Anwendung anhand des standardisierten CRISP-DM Prozesses erörtert. Anschließend wurden für die vorliegende Arbeit geeignete Data Mining Verfahren mit Hilfe von Literatur erörtert. Aus diesen Data Mining Verfahren und den erhobenen Anforderungen an den Anwendungsfall der vorliegenden Arbeit, wurde das Data Mining Verfahren der Entscheidungsbäume für die Umsetzung des Prototyps ausgewählt. Im zweiten Teil der Arbeit wurde mit Hilfe des CRISP-DM Prozesses, ein Prototyp zur intelligenten Automatisierung der Beleuchtungssteuerung entwickelt und in ein bestehendes Smart Home integriert. Dieser Prototyp wurde im Zuge einer einfachen Fallstudie evaluiert. Dabei wurde die Fallstudie in zwei Iterationen evaluiert. In der ersten Iteration wurden einmalig trainierte Data Mining Modelle evaluiert und in der zweiten Iteration wurden kontinuierlich trainierte Data Mining Modelle evaluiert. Basierend auf der Auswertung der Daten und dem Vergleich der Vorhersageleistung, konnte die Erkenntnis gewonnen werden, dass ein kontinuierliches Training zeitnah zu einer Verbesserung der Vorhersageleistung beitragen kann.</description>
      <author>Christian Edelsbrunner</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/402</guid>
      <pubDate>Mon, 04 Sep 2023 14:07:52 +0200</pubDate>
    </item>
    <item>
      <title>Einsatz eines Live-Video-Assistenzsystems im Problemlösungszyklus von Service- und Instandhaltungspersonal</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/396</link>
      <description>Die Revolution in der Industrie hält nunmehr seit über 200 Jahren an. Mit Beginn des 21. Jahrhunderts wurde durch die Entwicklung von Cyber-physischen Systemen die vierte und bislang jüngste Revolutionsstufe eingeleitet. Eine datentechnische Vernetzung der Anlagen untereinander und eine zunehmende Maschinenkommunikation erhöhen die Gesamtkomplexität des Systems und erschweren dadurch die Service- und Instandhaltungsarbeiten. Die Instandhaltung, welche mittlerweile maßgeblich zum Unternehmenserfolg und zur Wettbewerbsfähigkeit beiträgt, hat an Komplexität zugenommen und fordert nicht zuletzt auch durch die Digitalisierung in der Industrie ein Umdenken hinsichtlich der Ausbildung und Qualifikation von Service- und InstandhaltungsmitarbeiterInnen. Digitale Assistenzsysteme bilden eine Schnittstelle für eine Mensch-Maschine-Interaktion und sollen die MitarbeiterInnen bei komplexen Tätigkeiten unterstützen. Diese Masterarbeit zeigt, inwiefern der Einsatz eines Live-Video-Assistenzsystems Service- und InstandhaltungsmitarbeiterInnen unterstützen und den Problemlösungsprozess positiv beeinflussen kann. Im Zuge der Theorieaufarbeitung im ersten Teil dieser Arbeit werden Hypothesen formuliert, welche im zweiten Teil der Arbeit durch einen „mixed-method“-Ansatz geprüft werden, wozu Daten aus österreichischen, international agierenden, Unternehmen erhoben werden. Die Ergebnisse der Untersuchung zeigen, dass Live-Video-Assistenzsysteme wie z.B. EVOCALL nicht zielführende Kommunikationskanäle ersetzen können und dass durch einen „work-shadowing“-Ansatz die Vor-Ort-Präsenz von ExpertInnen verringert sowie die Reparaturzeiten reduziert werden können. Die Erhebung hat gezeigt, dass solide Ausbildungsmaßnahmen für die Service- und InstandhaltungsmitarbeiterInnen eine Herausforderung für Unternehmen darstellen, welcher sie sich trotz Einsatz eines Live-Video-Assistenzsystems weiterhin stellen werden müssen.</description>
      <author>Markus Streibl</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/396</guid>
      <pubDate>Mon, 04 Sep 2023 13:53:51 +0200</pubDate>
    </item>
  </channel>
</rss>
