006 Spezielle Computerverfahren
Filtern
Dokumenttyp
- Masterarbeit (23)
Volltext vorhanden
- ja (23)
Gehört zur Bibliographie
- ja (23)
Schlagworte
- Maschinelles Lernen (5)
- Webanwendung (4)
- Assistenzsystem (1)
- Benutzeroberfläche (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Data Mining (1)
- Digitale Fotografie (1)
- Digitalisierung (1)
- Emotionale Intelligenz (1)
Diese Arbeit beschäftigt sich damit wie Deep Neural Networks (DNN) genutzt werden können, um Videospielbewertungen auf Basis eines von Benutzer*innen geschriebenen Textes, einen Score zuzuweisen. Da es sich hierbei um von Endbenutzer*innen verfasste Bewertungen handelt, müssen für diese Arbeit einerseits Maßnahmen auf Basis von schlechter Rechtschreibung und Grammatik getroffen werden, andererseits auch derzeitige Trends wie das Review Bombing berücksichtigt werden. Um dies zu bewerkstelligen, wurde CRISP-DM als Vorgehensmodell gewählt, um die Texte mit den jeweiligen Scores zu analysieren. Ein Webcrawler wurde verwendet um Nutzerwertungen mit Text und Score von der Seite metacritic.com zu extrahieren. Diese Daten wurden dann basierend auf mehreren Faktoren gefiltert und in Trainings-, Validierungs- und Testdatensatz aufgeteilt. Alles in allem wurden insgesamt 420.000 Bewertungen für das Trainieren, Validieren und Testen der Modelle verwendet. Zwei unterschiedliche Arten von neuronalen Netzen wurden trainiert: Long-Short-Term-Memory (LSTM) und Transformer. Beide Netzwerke wurden mit leicht unterschiedlichen Testdatensätzen auf verschiedenste Parameter verglichen. Die Ergebnisse zeigen, dass Transformer LSTMs in verschiedensten Metriken entweder leicht oder sogar mit großer Signifikanz übertreffen. Weiters sind Transformer sehr viel einfacher Hardware-optimal zu trainieren, da sie für Parallelisierung konzipiert sind, was sich in den Trainingszeiten widerspiegelt.
Der Geist bestimmt die Materie (Dispenza, 2017). Diese Masterarbeit verfolgt das Ziel, eine Verbindung zwischen Technik und Wirtschaftswissenschaft sowie psychologischen und physiologischen Ansätzen herzustellen, mit einem besonderen Fokus auf die Bewusstseins- und Persönlichkeitsforschung. Kernstück der Arbeit ist die Entwicklung und Evaluierung der ATEMversum-App, einer digitalen Plattform, die darauf abzielt, emotionale Intelligenz und persönliche Entwicklung zu fördern. Unter Anwendung des Design Science Research Ansatzes wird fortlaufend relevantes Wissen generiert, das auf anerkannten wissenschaftlichen Prinzipien basiert. Die Arbeit verknüpft tiefgründige Analysen verschiedener Wissenschaftsgebiete, um ein umfassendes und holistisches Verständnis universeller, menschlicher und technologischer Dynamiken zu erlangen. Als Essenz wird Schritt für Schritt erarbeitet, wie bewusste als auch unbewusste Emotionen, Gefühle, Gedanken, Worte, Handlungen und Gewohnheiten unser Leben beeinflussen und dadurch unsere Gegenwart und Zukunft gestalten. Der theoretische Hintergrund dient als Fundament für die praktische Umsetzung in der Web-Applikation, die komplexe Konzepte in einer benutzerfreundlichen Form präsentiert. Durch die Betrachtung angesehener Forschungen in Bezug auf Human-Computer Interaction, Usability und e-Learning können benutzerzentrierte Design-Prinzipien abgeleitet werden, die für eine erfolgreiche und iterative Entwicklung bedeutend sind. Die Evaluation der App im Rahmen eines Feldexperiments zeigt, dass eine breite Zielgruppe innerhalb kurzer Zeit eine erweiterte emotionale Wahrnehmung und Bewusstseins- und Persönlichkeitsentwicklung erreichen kann. Eine Weiterentwicklung der Applikation wird als erstrebenswert erkannt. Ein zentraler Aspekt der Arbeit ist die kritische und ganzheitliche Auseinandersetzung mit der Rolle von Daten und Informationen in der digitalen Welt und deren Auswirkungen auf die Gesellschaft und Individuen. Es wird betont, wie wichtig ein verantwortungsvoller Umgang mit diesen Ressourcen innerhalb von Informationssystemen ist. Insgesamt untermauert die Arbeit die Rolle der Wirtschaftsinformatik als eine Disziplin, die technologische Fortschritte mit menschlichen Bedürfnissen und gesellschaftlichen Zielen verknüpft. Die ATEMversum-App, verfügbar unter https://atemversum.app/#/, bleibt als Plattform für kontinuierliche Anmeldungen und Weiterentwicklungen bestehen.
Diese Masterarbeit beschäftigt sich mit der Untersuchung von Leistungsbeeinträchtigungen in xDSL-Netzwerken durch den Einsatz von ML (Machine Learning) Methoden. Angesichts der noch immer weit verbreiteten Bedeutung einer zuverlässigen und leistungsfähigen DSL-Infrastruktur für den digitalen Alltag zielt diese Arbeit darauf ab, innovative Lösungen zur Identifizierung und Behebung von Signalstörungen zu erforschen. Durch eine umfassende Analyse der xDSL-Technologie und der bestehenden Herausforderungen im Bereich der Signalübertragung legt die Arbeit die theoretische Grundlage für den Einsatz von ML. Anschließend werden verschiedene ML-Modelle entwickelt, trainiert und evaluiert, um ihre Eignung für die automatische Erkennung und Klassifizierung von Netzwerkbeeinträchtigungen zu bestimmen. Die Ergebnisse zeigen, dass ML-basierte Ansätze das Potenzial haben, signifikante Verbesserungen in der Fehlerdiagnose und Behebung zu erzielen, was letztendlich zu einer optimierten Netzwerkleistung führt. Diese Arbeit leistet einen wichtigen Beitrag im Bereich der Netzwerkdiagnostik und öffnet neue Wege für die Anwendung von ML-Technologien in der Telekommunikationsindustrie.
Diese Masterarbeit erforscht die Integration künstlicher Intelligenz (KI) in die DevOps- und ITOps-Prozesse. Durch eine systematische Literaturübersicht wurden insgesamt 75 relevante Arbeiten in verschiedenen Bereichen eingehend untersucht, darunter Chancen, Herausforderungen und die verschiedenen Arten von künstlicher Intelligenz, die genutzt werden. Der Hauptfokus dieser Forschung liegt darin, eine Abbildung zu erstellen, die potenzielle KI-Integrationen innerhalb des DevOps-Prozesses aufzeigt. Zahlreiche Studien zu KI und Software- oder Betriebssystemen lösen unbeabsichtigt verschiedene Probleme in verschiedenen Phasen von DevOps. Diese Studie fasst eine bedeutende Anzahl wissenschaftlicher Arbeiten zusammen, die diese Phasen unterstützen, und fasst ihre Methoden zusammen. Dieser Ansatz bietet einen Überblick über die Unterstützung von KI für DevOps und die damit verbundenen Herausforderungen. Darüber hinaus listet diese Arbeit die häufig erwähnten Vorteile der KI-Integration sowie die verschiedenen KPIs und Metriken auf, die zur Messung des Erfolgs der KI-Methode oder der Integration selbst verwendet werden. Diese Arbeit hebt die Bedeutung hervor, zu verstehen, wie KI in DevOps und ITOps passt. Nach der Betrachtung verschiedener Studien ist klar, dass KI die Arbeitsweise dieser Prozesse erheblich verbessern kann, indem sie sie schneller und genauer macht. Die Forschung schlägt einen ganzheitlichen Ansatz vor, der nicht nur die positiven und herausfordernden Aspekte zeigt, sondern auch Möglichkeiten aufzeigt, KI in DevOps und ITOps einzusetzen und zu messen, wie gut sie funktioniert. Alle diese Ergebnisse zielen darauf ab, einen Leitfaden zu erstellen, der Fachleuten und Unternehmen dabei hilft, KI in diesem Prozessen klug und effektiv zu nutzen.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.