006 Spezielle Computerverfahren
Filtern
Dokumenttyp
- Masterarbeit (22)
Volltext vorhanden
- ja (22)
Gehört zur Bibliographie
- ja (22)
Schlagworte
- Maschinelles Lernen (4)
- Webanwendung (4)
- Assistenzsystem (1)
- Benutzeroberfläche (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Data Mining (1)
- Digitale Fotografie (1)
- Digitalisierung (1)
- Emotionale Intelligenz (1)
Der Geist bestimmt die Materie (Dispenza, 2017). Diese Masterarbeit verfolgt das Ziel, eine Verbindung zwischen Technik und Wirtschaftswissenschaft sowie psychologischen und physiologischen Ansätzen herzustellen, mit einem besonderen Fokus auf die Bewusstseins- und Persönlichkeitsforschung. Kernstück der Arbeit ist die Entwicklung und Evaluierung der ATEMversum-App, einer digitalen Plattform, die darauf abzielt, emotionale Intelligenz und persönliche Entwicklung zu fördern. Unter Anwendung des Design Science Research Ansatzes wird fortlaufend relevantes Wissen generiert, das auf anerkannten wissenschaftlichen Prinzipien basiert. Die Arbeit verknüpft tiefgründige Analysen verschiedener Wissenschaftsgebiete, um ein umfassendes und holistisches Verständnis universeller, menschlicher und technologischer Dynamiken zu erlangen. Als Essenz wird Schritt für Schritt erarbeitet, wie bewusste als auch unbewusste Emotionen, Gefühle, Gedanken, Worte, Handlungen und Gewohnheiten unser Leben beeinflussen und dadurch unsere Gegenwart und Zukunft gestalten. Der theoretische Hintergrund dient als Fundament für die praktische Umsetzung in der Web-Applikation, die komplexe Konzepte in einer benutzerfreundlichen Form präsentiert. Durch die Betrachtung angesehener Forschungen in Bezug auf Human-Computer Interaction, Usability und e-Learning können benutzerzentrierte Design-Prinzipien abgeleitet werden, die für eine erfolgreiche und iterative Entwicklung bedeutend sind. Die Evaluation der App im Rahmen eines Feldexperiments zeigt, dass eine breite Zielgruppe innerhalb kurzer Zeit eine erweiterte emotionale Wahrnehmung und Bewusstseins- und Persönlichkeitsentwicklung erreichen kann. Eine Weiterentwicklung der Applikation wird als erstrebenswert erkannt. Ein zentraler Aspekt der Arbeit ist die kritische und ganzheitliche Auseinandersetzung mit der Rolle von Daten und Informationen in der digitalen Welt und deren Auswirkungen auf die Gesellschaft und Individuen. Es wird betont, wie wichtig ein verantwortungsvoller Umgang mit diesen Ressourcen innerhalb von Informationssystemen ist. Insgesamt untermauert die Arbeit die Rolle der Wirtschaftsinformatik als eine Disziplin, die technologische Fortschritte mit menschlichen Bedürfnissen und gesellschaftlichen Zielen verknüpft. Die ATEMversum-App, verfügbar unter https://atemversum.app/#/, bleibt als Plattform für kontinuierliche Anmeldungen und Weiterentwicklungen bestehen.
Diese Masterarbeit beschäftigt sich mit der Untersuchung von Leistungsbeeinträchtigungen in xDSL-Netzwerken durch den Einsatz von ML (Machine Learning) Methoden. Angesichts der noch immer weit verbreiteten Bedeutung einer zuverlässigen und leistungsfähigen DSL-Infrastruktur für den digitalen Alltag zielt diese Arbeit darauf ab, innovative Lösungen zur Identifizierung und Behebung von Signalstörungen zu erforschen. Durch eine umfassende Analyse der xDSL-Technologie und der bestehenden Herausforderungen im Bereich der Signalübertragung legt die Arbeit die theoretische Grundlage für den Einsatz von ML. Anschließend werden verschiedene ML-Modelle entwickelt, trainiert und evaluiert, um ihre Eignung für die automatische Erkennung und Klassifizierung von Netzwerkbeeinträchtigungen zu bestimmen. Die Ergebnisse zeigen, dass ML-basierte Ansätze das Potenzial haben, signifikante Verbesserungen in der Fehlerdiagnose und Behebung zu erzielen, was letztendlich zu einer optimierten Netzwerkleistung führt. Diese Arbeit leistet einen wichtigen Beitrag im Bereich der Netzwerkdiagnostik und öffnet neue Wege für die Anwendung von ML-Technologien in der Telekommunikationsindustrie.
Diese Masterarbeit erforscht die Integration künstlicher Intelligenz (KI) in die DevOps- und ITOps-Prozesse. Durch eine systematische Literaturübersicht wurden insgesamt 75 relevante Arbeiten in verschiedenen Bereichen eingehend untersucht, darunter Chancen, Herausforderungen und die verschiedenen Arten von künstlicher Intelligenz, die genutzt werden. Der Hauptfokus dieser Forschung liegt darin, eine Abbildung zu erstellen, die potenzielle KI-Integrationen innerhalb des DevOps-Prozesses aufzeigt. Zahlreiche Studien zu KI und Software- oder Betriebssystemen lösen unbeabsichtigt verschiedene Probleme in verschiedenen Phasen von DevOps. Diese Studie fasst eine bedeutende Anzahl wissenschaftlicher Arbeiten zusammen, die diese Phasen unterstützen, und fasst ihre Methoden zusammen. Dieser Ansatz bietet einen Überblick über die Unterstützung von KI für DevOps und die damit verbundenen Herausforderungen. Darüber hinaus listet diese Arbeit die häufig erwähnten Vorteile der KI-Integration sowie die verschiedenen KPIs und Metriken auf, die zur Messung des Erfolgs der KI-Methode oder der Integration selbst verwendet werden. Diese Arbeit hebt die Bedeutung hervor, zu verstehen, wie KI in DevOps und ITOps passt. Nach der Betrachtung verschiedener Studien ist klar, dass KI die Arbeitsweise dieser Prozesse erheblich verbessern kann, indem sie sie schneller und genauer macht. Die Forschung schlägt einen ganzheitlichen Ansatz vor, der nicht nur die positiven und herausfordernden Aspekte zeigt, sondern auch Möglichkeiten aufzeigt, KI in DevOps und ITOps einzusetzen und zu messen, wie gut sie funktioniert. Alle diese Ergebnisse zielen darauf ab, einen Leitfaden zu erstellen, der Fachleuten und Unternehmen dabei hilft, KI in diesem Prozessen klug und effektiv zu nutzen.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.
Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen
(2017)
Videokonferenzsysteme sind ein Teilbereich der Unified Communications. Letztere beinhalten, unter anderen, auch Instantmessaging und Content Sharing und komplettieren somit die Kommunikationsmöglichkeiten. Die Masterarbeit Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen ist motiviert von verhältnismäßig teuren Lösungen am Markt und dem Spaß, sich mit computerbasierten Lösungen zu beschäftigen. Nach der Aufstellung, welche Komponenten bei einem Videokonferenzsystem beteiligt sind, werden notwendige Voraussetzungen herausgearbeitet, die für ein Full-HD-Videokonferenzsystem notwendig sind. Aus diesen Anforderungen werden unterschiedliche Umsetzungsvarianten abgeleitet. Im Anschluss wird eine mögliche Umsetzungsvariante mit einem Raspberry Pi 3 und einer Kamera, die H.264-kodierte Videodaten liefert, experimentell umgesetzt. Dabei ist es kein Ziel, eine fertige, einsetzbare Lösung zu erstellen, sondern nur, zu verifizieren, ob die Hardware fähig ist, die ihm gestellte Aufgabe zu erfüllen. Da die Latenzzeit sowohl der Audiodaten als auch der Videodaten unter 450 Millisekunden liegt, konnte die Hypothese H1 bestätigt und die Hypothese H0 widerlegt werden. Dementsprechend kann die Forschungsfrage mit der oben genannten Auswahl an Hardware beantwortet werden. Da die gemessene Latenzzeit inklusive einer höheren WAN Latenz jedoch über 300 Millisekunden liegen kann, muss zur Kenntnis genommen werden, dass die empfundene Qualität als nicht optimal wahrgenommen werden könnte. Es müsste entsprechend später festgestellt werden, ob sich diese Latenz auf dieser zugrundeliegenden Hardware weiter reduzieren lässt, oder ob es notwendig ist, eine andere Hardwarealternative in Betracht zu ziehen. Davon abgesehen, fehlt für ein einsetzbares Produkt eine Benutzeroberfläche. Auch könnte in Zukunft der Einsatz von H.265, die Steigerung der Auflösung auf 4K, sowie die Komplettierung der Features in Richtung Unified Communications von Interesse sein.