Neuronale Netze zur Zeitreihenvorhersage

  • Das Ziel dieser Arbeit ist die Analyse des Einflusses der Trainingsdatenmenge auf die Leistungsfähigkeit neuronaler Netzwerkarchitekturen in der Zeitreihenvorhersage. Untersucht werden Recurrent Neural Network (RNN), Convolutional Neural Network (CNN) und Trans-former-Modelle, einschließlich Long Short-Term Memory (LSTM),Gated Recurrent Unit (GRU) und Temporal Convolutional Network (TCN). Ziel ist die systematische Bewertung ihrer Stärken und Schwächen in der Zeitreihenvorhersage. Dazu wurde die Design Science Research Methodology (DSRM) genutzt. Eine systematische Literaturrecherche identifizierte relevante Architekturen und Bewertungsmetriken. Anschließend wurde ein Benchmarking-Framework entwickelt, um Hyperparameter-Tuning, Training und Evaluation über verschiedene Datensätze zu standardisieren. Eine empirische Analyse unter-suchte den Einfluss variierender Datenmengen auf die Modellleistung. Die Ergebnisse zeigen, dass mehr Trainingsdaten die Vorhersagegenauigkeit verbessern, jedoch mit abnehmendem Nutzen ab einem bestimmten Schwellenwert. Der Einfluss der Datenmenge ist stark architekturabhängig: Rekurrente Modelle wie LSTMs und GRUs profitieren zunächst stark von größeren Datensätzen, erreichen jedoch einen Sättigungspunkt, an dem zusätzliche Daten keinen signifikanten Vorteil mehr bringen oder sogar Overfitting verursachen. Im Gegensatz dazu zeigen TCN- und Transformer-Modelle eine stabilere Leistung über verschiedene Trainingssplits hinweg, was auf eine höhere Robustheit in der Modellierung langfristiger Abhängigkeiten und der Anpassung an unterschiedliche Datenmengen hinweist. Auf Basis dieser Erkenntnisse leistet diese Arbeit einen methodischen Beitrag zur standardisierten Bewertung der Datenmengenabhängigkeit in der Zeitreihenvorhersage. Zukünftige Forschung sollte sich auf die Optimierung der Dateneffizienz durch adaptive Aggregation, fortgeschrittene Vorverarbeitung und Feature Engineering konzentrieren, um die Effizienz und Robustheit neuronaler Netzwerke weiter zu verbessern.
  • The objective of this thesis is to analyze the impact of training data volume on the performance of neural network architectures in time series forecasting. The study evaluates Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), and Transformer-based models, including specific implementations such as Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), and Temporal Convolutional Network (TCN). The goal is to assess their strengths and limitations in the context of time series prediction tasks. To this end, the Design Science Research Methodology (DSRM) was adopted. A systematic literature review was conducted to identify state-of-the-art architectures and evaluation metrics for time series forecasting. Subsequently, a benchmarking framework was designed and implemented to standardize hyperparameter tuning, training, and evaluation across multiple datasets. Empirical analysis was performed to investigate the influence of varying data volumes on model performance. The results indicate that while increased data availability generally enhances forecasting accuracy, the rate of improvement diminishes beyond a specific threshold. However, the impact of data volume is highly architecture-dependent: recurrent models, such as LSTMs and GRUs, exhibit strong initial performance gains with larger datasets but reach a saturation point where additional data offers minimal benefits or even leads to overfitting. In contrast, TCNs and Transformer models demonstrate more stable performance across different training splits, suggesting greater robustness in modeling long-term dependencies and handling variations in training data size. This thesis contributes a robust evaluation framework for assessing the interplay between data volume and model performance in time series forecasting. Future research should focus on optimizing data efficiency through adaptive aggregation, advanced preprocessing to address data sparsity, and feature engineering to enhance data representation. Investigating hybrid models and alternative forecasting approaches could further improve adaptability and robustness in time series prediction.

Download full text files

Export metadata

Additional Services

Share in Twitter Search Google Scholar
Metadaten
Author(s):Thomas Gugatschka
DOI:https://doi.org/10.58023/1160
Subtitle (German):Einfluss von Datenmenge und Modellarchitekturen auf die Vorhersagegenauigkeit
Document Type:Master's Thesis
Language:German
Year of Publication:2025
Publishing Institution:FH CAMPUS 02 (CAMPUS 02 Fachhochschule der Wirtschaft)
Granting Institution:FH CAMPUS 02 (CAMPUS 02 Fachhochschule der Wirtschaft)
Release Date:2025/06/30
GND Keyword:Neuronales NetzGND
Page Number:VI, 168
Institutes:Informationstechnologien & Wirtschaftsinformatik
Dewey Decimal Classification:0 Informatik, Informationswissenschaft, allgemeine Werke / 00 Informatik, Wissen, Systeme / 006 Spezielle Computerverfahren
BKL-Classification:54 Informatik / 54.32 Rechnerkommunikation
Open Access:ja
Licence (German):License LogoBundesgesetz über das Urheberrecht an Werken der Literatur und der Kunst und über verwandte Schutzrechte (Urheberrechtsgesetz)

$Rev$