006 Spezielle Computerverfahren
Refine
Year of publication
Document Type
- Master's Thesis (28)
Has Fulltext
- yes (28)
Is part of the Bibliography
- yes (28)
Keywords
- Maschinelles Lernen (6)
- Webanwendung (4)
- Künstliche Intelligenz (3)
- Neuronales Netz (2)
- Assistenzsystem (1)
- Benutzeroberfläche (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Data Mining (1)
- Digitale Fotografie (1)
Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.
Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.
Mit der zunehmenden Verbreitung generativer KI-Tools wie ChatGPT und GitHub Copilotin der modernen Softwareentwicklung steigt das Potenzial für eine grundlegende Veränderung verschiedener Entwicklungsprozesse. Diese Arbeit untersucht die Faktoren, die die Akzeptanz und Nutzung generativer KI-Tools durch Entwickler*innen in agilen Softwareentwicklungsteams beeinflussen. Auf Grundlage der Unified Theory of Acceptance and Use of Technology (UTAUT) und einschlägiger Forschungsergebnisse wurde eine quantitative Online-Umfrage mit 352Entwickler*innen durchgeführt. Die Ergebnisse zeigen, dass die Leistungserwartung der stärkste Treiber der Verhaltensabsicht ist – insbesondere die erwartete Steigerung von Effizienz und Produktivität. Auch die Aufwandserwartung und der soziale Einfluss haben einen positiven, jedoch geringeren Effekt auf die Nutzungsabsicht. Bei der Aufwandserwartung fallt insbesondere der wahrgenommene Aufwand für die Überprüfung und Korrektur generierten Codes ins Gewicht, während beim sozialen Einfluss externe Branchentrends eine stärkere Wirkung haben als interne Vorgaben. Neben der Verhaltensabsicht beeinflussen auch begünstigende Bedingungen das tatsächliche Nutzungsverhalten – insbesondere eine unterstützende technische Infrastruktur und organisatorische Maßnahmen wie Schulungen. Überraschenderweise zeigt sich ein negativer Zusammenhang zwischen der Anwendung agiler Praktiken und der Nutzung generativer KI-Tools, während entwicklungsnahe Tätigkeiten wie Code-Refactoring einen positiven Zusammenhang mit dem Nutzungsverhalten aufweisen. Die Erkenntnisse liefern praxisrelevante Implikationen: Unternehmen sollten nicht nur den Mehrwert generativer KI-Tools kommunizieren, sondern auch gezielte Unterstützung und Schulungen zur effektiven Nutzung bereitstellen. Zudem besteht weiterer Forschungsbedarf zur optimalen Integration generativer KI-Tools in agile Entwicklungsprozesse.
Diese Masterarbeit untersucht den Einsatz von Künstlicher Intelligenz im Recruiting-Prozess von Großunternehmen in der österreichischen IT-Branche. Vor dem Hintergrund des zunehmenden Fachkräftemangels in der IT-Branche beleuchtet die Arbeit den Nutzen und die Herausforderungen beim Einsatz von KI-gestützten Recruiting-Tools. Die Untersuchung basiert auf einem zweistufigen Forschungsansatz. Zunächst wurde eine umfassende Literaturrecherche durchgeführt, um die aktuelle Fachkräftesituation, die Entwicklung moderner Recruiting-Strategien sowie die theoretischen Grundlagen von KI im Personalwesen darzustellen. Dabei wurden zentrale Technologien wie Matching-Tools, Chatbots, Workforce Analytics und automatisierte Assessments ebenso betrachtet wie rechtliche und ethische Aspekte, insbesondere in Bezug auf Datenschutz, Transparenz und Diskriminierungsrisiken. Ergänzend wurden qualitative Experteninterviews mit Fachleuten aus den Bereichen IT und Human Resources durchgeführt. Die Auswertung der Interviews erfolgte anhand der qualitativen Inhaltsanalyse nach Mayring und lieferte praxisnahe Einblicke in Chancen, Risiken und Erfolgsfaktoren bei der Implementierung von KI-gestützten Recruiting-Tools. Die Ergebnisse zeigen, dass KI das Recruiting deutlich effizienter gestalten kann - insbesondere in den Bereichen Kandidatenscreening, Kommunikation und datenbasierte Entscheidungsfindung. Gleichzeitig bestehen weiterhin Bedenken hinsichtlich algorithmischer Verzerrung, mangelnder Nachvollziehbarkeit und rechtlicher Unsicherheiten. Der verantwortungsvolle Einsatz von KI erfordert daher klare ethische Leitlinien und ein stabiles rechtliches Fundament. Diese Arbeit liefert sowohl theoretische Grundlagen als auch praxisorientierte Handlungsempfehlungen für Unternehmen, die KI im Recruiting einsetzen möchten, um im Wettbewerb um IT-Fachkräfte zukunftsfähig zu bleiben.
Das Ziel dieser Arbeit ist die Analyse des Einflusses der Trainingsdatenmenge auf die Leistungsfähigkeit neuronaler Netzwerkarchitekturen in der Zeitreihenvorhersage. Untersucht werden Recurrent Neural Network (RNN), Convolutional Neural Network (CNN) und Trans-former-Modelle, einschließlich Long Short-Term Memory (LSTM),Gated Recurrent Unit (GRU) und Temporal Convolutional Network (TCN). Ziel ist die systematische Bewertung ihrer Stärken und Schwächen in der Zeitreihenvorhersage. Dazu wurde die Design Science Research Methodology (DSRM) genutzt. Eine systematische Literaturrecherche identifizierte relevante Architekturen und Bewertungsmetriken. Anschließend wurde ein Benchmarking-Framework entwickelt, um Hyperparameter-Tuning, Training und Evaluation über verschiedene Datensätze zu standardisieren. Eine empirische Analyse unter-suchte den Einfluss variierender Datenmengen auf die Modellleistung. Die Ergebnisse zeigen, dass mehr Trainingsdaten die Vorhersagegenauigkeit verbessern, jedoch mit abnehmendem Nutzen ab einem bestimmten Schwellenwert. Der Einfluss der Datenmenge ist stark architekturabhängig: Rekurrente Modelle wie LSTMs und GRUs profitieren zunächst stark von größeren Datensätzen, erreichen jedoch einen Sättigungspunkt, an dem zusätzliche Daten keinen signifikanten Vorteil mehr bringen oder sogar Overfitting verursachen. Im Gegensatz dazu zeigen TCN- und Transformer-Modelle eine stabilere Leistung über verschiedene Trainingssplits hinweg, was auf eine höhere Robustheit in der Modellierung langfristiger Abhängigkeiten und der Anpassung an unterschiedliche Datenmengen hinweist. Auf Basis dieser Erkenntnisse leistet diese Arbeit einen methodischen Beitrag zur standardisierten Bewertung der Datenmengenabhängigkeit in der Zeitreihenvorhersage. Zukünftige Forschung sollte sich auf die Optimierung der Dateneffizienz durch adaptive Aggregation, fortgeschrittene Vorverarbeitung und Feature Engineering konzentrieren, um die Effizienz und Robustheit neuronaler Netzwerke weiter zu verbessern.
Diese Arbeit beschäftigt sich damit wie Deep Neural Networks (DNN) genutzt werden können, um Videospielbewertungen auf Basis eines von Benutzer*innen geschriebenen Textes, einen Score zuzuweisen. Da es sich hierbei um von Endbenutzer*innen verfasste Bewertungen handelt, müssen für diese Arbeit einerseits Maßnahmen auf Basis von schlechter Rechtschreibung und Grammatik getroffen werden, andererseits auch derzeitige Trends wie das Review Bombing berücksichtigt werden. Um dies zu bewerkstelligen, wurde CRISP-DM als Vorgehensmodell gewählt, um die Texte mit den jeweiligen Scores zu analysieren. Ein Webcrawler wurde verwendet um Nutzerwertungen mit Text und Score von der Seite metacritic.com zu extrahieren. Diese Daten wurden dann basierend auf mehreren Faktoren gefiltert und in Trainings-, Validierungs- und Testdatensatz aufgeteilt. Alles in allem wurden insgesamt 420.000 Bewertungen für das Trainieren, Validieren und Testen der Modelle verwendet. Zwei unterschiedliche Arten von neuronalen Netzen wurden trainiert: Long-Short-Term-Memory (LSTM) und Transformer. Beide Netzwerke wurden mit leicht unterschiedlichen Testdatensätzen auf verschiedenste Parameter verglichen. Die Ergebnisse zeigen, dass Transformer LSTMs in verschiedensten Metriken entweder leicht oder sogar mit großer Signifikanz übertreffen. Weiters sind Transformer sehr viel einfacher Hardware-optimal zu trainieren, da sie für Parallelisierung konzipiert sind, was sich in den Trainingszeiten widerspiegelt.
Der Geist bestimmt die Materie (Dispenza, 2017). Diese Masterarbeit verfolgt das Ziel, eine Verbindung zwischen Technik und Wirtschaftswissenschaft sowie psychologischen und physiologischen Ansätzen herzustellen, mit einem besonderen Fokus auf die Bewusstseins- und Persönlichkeitsforschung. Kernstück der Arbeit ist die Entwicklung und Evaluierung der ATEMversum-App, einer digitalen Plattform, die darauf abzielt, emotionale Intelligenz und persönliche Entwicklung zu fördern. Unter Anwendung des Design Science Research Ansatzes wird fortlaufend relevantes Wissen generiert, das auf anerkannten wissenschaftlichen Prinzipien basiert. Die Arbeit verknüpft tiefgründige Analysen verschiedener Wissenschaftsgebiete, um ein umfassendes und holistisches Verständnis universeller, menschlicher und technologischer Dynamiken zu erlangen. Als Essenz wird Schritt für Schritt erarbeitet, wie bewusste als auch unbewusste Emotionen, Gefühle, Gedanken, Worte, Handlungen und Gewohnheiten unser Leben beeinflussen und dadurch unsere Gegenwart und Zukunft gestalten. Der theoretische Hintergrund dient als Fundament für die praktische Umsetzung in der Web-Applikation, die komplexe Konzepte in einer benutzerfreundlichen Form präsentiert. Durch die Betrachtung angesehener Forschungen in Bezug auf Human-Computer Interaction, Usability und e-Learning können benutzerzentrierte Design-Prinzipien abgeleitet werden, die für eine erfolgreiche und iterative Entwicklung bedeutend sind. Die Evaluation der App im Rahmen eines Feldexperiments zeigt, dass eine breite Zielgruppe innerhalb kurzer Zeit eine erweiterte emotionale Wahrnehmung und Bewusstseins- und Persönlichkeitsentwicklung erreichen kann. Eine Weiterentwicklung der Applikation wird als erstrebenswert erkannt. Ein zentraler Aspekt der Arbeit ist die kritische und ganzheitliche Auseinandersetzung mit der Rolle von Daten und Informationen in der digitalen Welt und deren Auswirkungen auf die Gesellschaft und Individuen. Es wird betont, wie wichtig ein verantwortungsvoller Umgang mit diesen Ressourcen innerhalb von Informationssystemen ist. Insgesamt untermauert die Arbeit die Rolle der Wirtschaftsinformatik als eine Disziplin, die technologische Fortschritte mit menschlichen Bedürfnissen und gesellschaftlichen Zielen verknüpft. Die ATEMversum-App, verfügbar unter https://atemversum.app/#/, bleibt als Plattform für kontinuierliche Anmeldungen und Weiterentwicklungen bestehen.
Diese Masterarbeit beschäftigt sich mit der Untersuchung von Leistungsbeeinträchtigungen in xDSL-Netzwerken durch den Einsatz von ML (Machine Learning) Methoden. Angesichts der noch immer weit verbreiteten Bedeutung einer zuverlässigen und leistungsfähigen DSL-Infrastruktur für den digitalen Alltag zielt diese Arbeit darauf ab, innovative Lösungen zur Identifizierung und Behebung von Signalstörungen zu erforschen. Durch eine umfassende Analyse der xDSL-Technologie und der bestehenden Herausforderungen im Bereich der Signalübertragung legt die Arbeit die theoretische Grundlage für den Einsatz von ML. Anschließend werden verschiedene ML-Modelle entwickelt, trainiert und evaluiert, um ihre Eignung für die automatische Erkennung und Klassifizierung von Netzwerkbeeinträchtigungen zu bestimmen. Die Ergebnisse zeigen, dass ML-basierte Ansätze das Potenzial haben, signifikante Verbesserungen in der Fehlerdiagnose und Behebung zu erzielen, was letztendlich zu einer optimierten Netzwerkleistung führt. Diese Arbeit leistet einen wichtigen Beitrag im Bereich der Netzwerkdiagnostik und öffnet neue Wege für die Anwendung von ML-Technologien in der Telekommunikationsindustrie.
Diese Masterarbeit erforscht die Integration künstlicher Intelligenz (KI) in die DevOps- und ITOps-Prozesse. Durch eine systematische Literaturübersicht wurden insgesamt 75 relevante Arbeiten in verschiedenen Bereichen eingehend untersucht, darunter Chancen, Herausforderungen und die verschiedenen Arten von künstlicher Intelligenz, die genutzt werden. Der Hauptfokus dieser Forschung liegt darin, eine Abbildung zu erstellen, die potenzielle KI-Integrationen innerhalb des DevOps-Prozesses aufzeigt. Zahlreiche Studien zu KI und Software- oder Betriebssystemen lösen unbeabsichtigt verschiedene Probleme in verschiedenen Phasen von DevOps. Diese Studie fasst eine bedeutende Anzahl wissenschaftlicher Arbeiten zusammen, die diese Phasen unterstützen, und fasst ihre Methoden zusammen. Dieser Ansatz bietet einen Überblick über die Unterstützung von KI für DevOps und die damit verbundenen Herausforderungen. Darüber hinaus listet diese Arbeit die häufig erwähnten Vorteile der KI-Integration sowie die verschiedenen KPIs und Metriken auf, die zur Messung des Erfolgs der KI-Methode oder der Integration selbst verwendet werden. Diese Arbeit hebt die Bedeutung hervor, zu verstehen, wie KI in DevOps und ITOps passt. Nach der Betrachtung verschiedener Studien ist klar, dass KI die Arbeitsweise dieser Prozesse erheblich verbessern kann, indem sie sie schneller und genauer macht. Die Forschung schlägt einen ganzheitlichen Ansatz vor, der nicht nur die positiven und herausfordernden Aspekte zeigt, sondern auch Möglichkeiten aufzeigt, KI in DevOps und ITOps einzusetzen und zu messen, wie gut sie funktioniert. Alle diese Ergebnisse zielen darauf ab, einen Leitfaden zu erstellen, der Fachleuten und Unternehmen dabei hilft, KI in diesem Prozessen klug und effektiv zu nutzen.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
