006 Spezielle Computerverfahren
Filtern
Dokumenttyp
- Masterarbeit (19)
Volltext vorhanden
- ja (19)
Gehört zur Bibliographie
- ja (19)
Schlagworte
- Maschinelles Lernen (3)
- Webanwendung (3)
- Assistenzsystem (1)
- Benutzeroberfläche (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Data Mining (1)
- Digitale Fotografie (1)
- Digitalisierung (1)
- Integriertes Lernen (1)
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.
Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen
(2017)
Videokonferenzsysteme sind ein Teilbereich der Unified Communications. Letztere beinhalten, unter anderen, auch Instantmessaging und Content Sharing und komplettieren somit die Kommunikationsmöglichkeiten. Die Masterarbeit Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen ist motiviert von verhältnismäßig teuren Lösungen am Markt und dem Spaß, sich mit computerbasierten Lösungen zu beschäftigen. Nach der Aufstellung, welche Komponenten bei einem Videokonferenzsystem beteiligt sind, werden notwendige Voraussetzungen herausgearbeitet, die für ein Full-HD-Videokonferenzsystem notwendig sind. Aus diesen Anforderungen werden unterschiedliche Umsetzungsvarianten abgeleitet. Im Anschluss wird eine mögliche Umsetzungsvariante mit einem Raspberry Pi 3 und einer Kamera, die H.264-kodierte Videodaten liefert, experimentell umgesetzt. Dabei ist es kein Ziel, eine fertige, einsetzbare Lösung zu erstellen, sondern nur, zu verifizieren, ob die Hardware fähig ist, die ihm gestellte Aufgabe zu erfüllen. Da die Latenzzeit sowohl der Audiodaten als auch der Videodaten unter 450 Millisekunden liegt, konnte die Hypothese H1 bestätigt und die Hypothese H0 widerlegt werden. Dementsprechend kann die Forschungsfrage mit der oben genannten Auswahl an Hardware beantwortet werden. Da die gemessene Latenzzeit inklusive einer höheren WAN Latenz jedoch über 300 Millisekunden liegen kann, muss zur Kenntnis genommen werden, dass die empfundene Qualität als nicht optimal wahrgenommen werden könnte. Es müsste entsprechend später festgestellt werden, ob sich diese Latenz auf dieser zugrundeliegenden Hardware weiter reduzieren lässt, oder ob es notwendig ist, eine andere Hardwarealternative in Betracht zu ziehen. Davon abgesehen, fehlt für ein einsetzbares Produkt eine Benutzeroberfläche. Auch könnte in Zukunft der Einsatz von H.265, die Steigerung der Auflösung auf 4K, sowie die Komplettierung der Features in Richtung Unified Communications von Interesse sein.
Sharepoint 2013 Intranet Lösung für mittelständische-matrixorganisierte Unternehmen im B2G Bereich
(2016)
Die Bundesbeschaffung GmbH (kurz BBG) entschloss sich zur Einführung einer IntranetLösung auf Basis der Technologie SharePoint 2013. Durch die Verwendung eines Intranets im Unternehmen werden Verbesserungen in der Zusammenarbeit und in der Kommunikation erwartet. Dabei ist es wichtig eine hohe Akzeptanz bei den Stakeholdern zu erreichen. Zur Einführung eines Intranets wird ein entsprechendes Intranet-Konzept benötigt.
Das Ziel dieser Arbeit ist ein Vorgehensmodell zu entwickeln, welches praktisch anwendbar ist, um ein Intranet-Konzept auf Basis von SharePoint 2013 für mittelständisch-matrixorganisierte Unternehmen im Business to Government-Bereich zu erstellen. Dabei wird großer Wert auf die Stakeholder-Akzeptanz gelegt.
Um das Ziel zu erreichen werden zu Beginn Erläuterungen benötigt. Diese behandeln die Themen Intranet, Mittelständisch-matrixorganisierte Dienstleister im B2G Bereich und SharePoint 2013. Aus den Anforderungen an ein Intranet, welche sich aus den Erläuterungen ergaben, können im Folgenden die wesentlichen Herausforderungen abgeleitet werden. Daraus ergibt sich, dass Intranet-Projekte nicht nur aus technischen Tätigkeiten bestehen, sondern ebenso einen starken Fokus auf die Organisation des Unternehmens haben. Daher werden Methoden aus den Disziplinen Projektmanagement und Requirements Engineering verwendet und beschrieben. Die Erkenntnisse der Ausarbeitungen fließen in das Vorgehensmodell zur Erstellung von passenden Intranet-Konzepten ein.
Dieses Vorgehensmodell wurde in der Bundebeschaffung GmbH (BBG) angewandt, wobei jede Phase des Vorgehensmodells durchlaufen und dokumentiert wird. Daraus ergeben sich Anforderungen an ein Intranet, welche im Kano-Modell kategorisiert und anschließend in eine Intranet-Roadmap überführt werden. Die gesammelten Anforderungen und Rahmenbedingungen fließen dabei in den Intranet-Architektur-Vorschlag ein. Dieser stellt die Grundlage für die Entwicklung des Intranets dar. Den Abschluss der Arbeit bilden ein Resümee und ein Ausblick mit Empfehlungen für nächste Schritte.
Die vorliegende Arbeit gibt einen Einblick in die Anwendung maschinellen Lernens zur Informationsextraktion aus natürlichsprachlichem Text. Das Ziel besteht darin, TechnikerInnen bei der Angebotslegung für Transformatoren zu unterstützen, indem Algorithmen Routineaufgaben übernehmen, und damit mehr Zeit für die Bearbeitung neuer oder besonderer Anforderungen zu schaffen. Hierzu werden einführend Fachbegriffe erklärt, um einen Überblick über das Fachgebiet zu geben. Im folgenden Theorieteil werden die Grundlagen beginnend bei relativer Wahrscheinlichkeit über endliche Automaten bis hin zu neuronalen Netzen anhand von Beispielen bearbeitet. Danach wurde im praktischen Teil der Arbeit anhand prototypischer Umsetzungen die Eignung einzelner Methoden des maschinellen Lernens getestet. Um den Entwicklungen, die im Jahr 2019 im Bereich Sprachverständnis stattfanden, Rechnung zu tragen, wurden im praktischen Teil ebenfalls Methoden des Transfer Learnings eingeführt und am Beispiel ausprobiert. Neben diesen wurden zudem softwaretechnische Aspekte, wie die Visualisierung der Daten in einer Webapplikation, prototypisch umgesetzt . Abschließend wird ein Weg aufgezeigt, der auf Basis der aus den prototypischen Umsetzungen gewonnenen Erfahrung empfehlenswert erscheint.
Als Virtual Reality wird eine Computertechnologie von künstlich geschaffenen Welten, Produkten, Anwendungen, Fähigkeiten und Fertigkeiten bezeichnet. Sie ermöglicht dem Anwender sich in eine virtuelle Welt mit der Hilfe von Virtual Reality-Brillen zu teleportieren, in der er sich nahezu frei darin bewegen kann. Der Anwender nimmt durch die Virtual-Reality Brille seine reale Umgebung nicht mehr wahr und taucht in eine unglaublich real erscheinende immersive virtuelle Welt ein. Die FH CAMPUS 02 plant ihr gesamtes Elektro-Energietechnik-Labor als virtuellen digitalen Zwilling abzubilden. Diese Abbildung soll dann das Gleiche ausführen, wie das Labor in der realen Welt dazu in der Lage ist. Das Ziel dieser Masterarbeit ist es, eine Schnittstelle über zwei Hochsprachen in C++ und C# zu entwickeln die es dem Anwender ermöglicht zwischen der realen und der virtuellen Welt wechselweise zu kommunizieren. Das Ergebnis dieser Masterarbeit ist das Programmieren einer seriellen Schnittstelle die ein Arduino Board, mit einem angeschlossenen Sensor, der die Luftfeuchtigkeit und Temperatur zyklisch ermittelt und die Werte über einen Mikrocontroller speichert, mit Unity 3D 2018 sowie Modbus-TCP verbindet. In dieser Spiele-Engine sowie über Modbus-TCP werden die Ergebnisse in analoger und digitaler Form virtuell ausgegeben und visualisiert. Über eine einfache Schaltung werden, über ein selbst hergestelltes LEDBoard für Demonstrations- und Testzwecke, die Abläufe dargestellt. Die größte Herausforderung der Umsetzung dieser seriellen Schnittstelle stellt dabei dar, dass es dafür bisher keine wissenschaftlichen Ansätze gibt.