Filtern
Dokumenttyp
- Masterarbeit (115)
Volltext vorhanden
- ja (115)
Gehört zur Bibliographie
- ja (115)
Schlagworte
- Prüfstand (6)
- Digitaler Zwilling (4)
- Transformator (4)
- Rapid Prototyping <Fertigung> (3)
- Sicherheitstechnik (3)
- Speicherprogrammierte Steuerung (3)
- Automatisierungssystem (2)
- Digitalisierung (2)
- Fertigung (2)
- Produktionstechnik (2)
Institut
- Automatisierungstechnik-Wirtschaft (115) (entfernen)
Modellbasierte Ansätze gewinnen innerhalb des Produktentwicklungsprozesses zunehmend an Bedeutung, um Ressourcen zu schonen und Produkte termingerecht auf den Markt zu bringen. Zentral sind in diesem Zusammenhang die Umsetzung von modernem Anforderungsmanagement und die Nutzung bereits entwickelter Module für neue Produkte. Dies kann mit Hilfe von Variationsmanagement und modellbasierten Systems-Engineering-Methoden erreicht werden. Anton Paar entwickelt komplexe Messsysteme für ein breites Anwendungsfeld, etwa die Messung von rheologischen Verhalten oder der Partikelgröße. Ziel der Arbeit ist es, zu untersuchen, inwiefern Variantenmanagement und modellbasierter Systementwurf in den Produktentwicklungsprozess von Messsystemen integriert werden können, um Time-to-Market-Ziele zu erreichen und Entwicklungsressourcen zu sparen. Im ersten Schritt wurden verschiedene Methoden evaluiert, um das beste Verfahren zur Erstellung des Modells eines hochkomplexen prozessintegrierten Partikelanalysesystems zu finden. Basierend auf dem Ergebnis dieser Analyse ergeben sich die verschiedenen Varianten, um identische Komponenten zu finden, die für mehrere Anwendungen wiederverwendet werden können. Dadurch können Ressourcen gespart werden und nachhaltige Entwicklung wird ermöglicht. Darüber hinaus konnten die verschiedenen Varianten des Systems in eine modellbasierte Systems-Engineering-Umgebung integriert werden, um die Vorteile im Vergleich zu veralteten Ansätzen aufzuzeigen. Das Ergebnis belegt, dass State-of-the-Art-Ansätze im Produktentstehungsprozess einen positiven Einfluss auf die Entwicklungsqualität haben. Darüber hinaus zeigt es, dass modellbasierte Methoden auch die Entwicklungszeit positiv beeinflussen können. Durch weitere Untersuchungen können diese Ergebnisse der Masterarbeit verifiziert werden.
Künstliche Intelligenz (KI) ist heutzutage ein wichtiger Teil von vielen Software-Applikationen geworden. Sie ist in Handy Apps integriert und je komplexer KI wird, umso größer ist in diesem Zusammenhang der Einfluss, den sie auf die individuelle Privatsphäre hat. Potentielle Risiken, die durch KI entstehen können, haben die Europäische Union dazu gebracht, einen Vorschlag für eine KI-Verordnung zu erarbeiten. Um die darin geforderten Risikominderungsmaßnahmen zu adressieren, hat das Fraunhofer Institut einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz veröffentlicht.
Das Hauptziel dieser Masterarbeit ist es, diesen textbasierten Leitfaden in ein Software-Tool zu überführen, welches Entwicklern von KI-Applikationen hilft, den Prozess gemäß Leitfaden zu dokumentieren. Dies hilft, den Leitfaden zu vereinfachen, um einen niederschwelligen Zugang zu dem Leitfaden für viele Menschen zu ermöglichen. Weitere Ziele dieser Arbeit sind sowohl das Aufdecken von möglichen Optimierungen der Richtlinie als auch Verbesserungen des bestehenden Software-Frameworks.
Das Software-Tool wurde unter Zuhilfenahme dieses Frameworks innerhalb der Low-Code Plattform Mendix entwickelt.
Das Ergebnis ist ein Software-Tool, welches die Anforderungen an vertrauenswürdige KI vereinfacht, je nach dem Anwendungsbereich der gerade beurteilten KI-Applikation. Nach der Nutzung des Software-Tools kann ein Bericht erzeugt werden, um die erfüllten Anforderungen der Vertrauenswürdigkeit zu dokumentieren.
Teleoperation über 5G
(2022)
Die Mobilfunktechnologie beeinflusst die Kommunikation und den Informationszugang der Menschheit seit den 1980er Jahren. Der 2017 definierte New-Radio-Standard der fünften Generation, bezeichnet als ‚5G‘, bietet fundamental neue Funktionalitäten, die mit keiner vorhergegangenen Mobilfunktechnologie vergleichbar sind. Aus diesem Grund wurde an der Fachhochschule CAMPUS 02 eine 5G-Infrastruktur errichtet, um Forschungsarbeit in den neuen Anwendungsfeldern und Einsatzszenarien zu betreiben.
Das Ziel dieser Arbeit ist die Realisierung eines ersten Anwendungsfalls in der Infrastruktur der Fachhochschule CAMPUS 02, um die Datenübertragung mit niedriger Latenz und Latenzzeitmessungen in einem 5G-Netzwerk zu untersuchen.
Zu Beginn erfolgte eine Sichtung der verfügbaren Soft- und Hardware für die Entwicklung eines Versuchsträgers, der die Anforderungen erfüllt und fernbedienbar ausgeführt werden kann. Der Aufbau bestand aus zwei USB-Webcams, montiert auf einem motorisierten Stativ. Die Steuerung erfolgte mit einem Servo-Controller-Board und einem Raspberry Pi 4, der mit einem 5G-Modem/Router verbunden war. Als Wiedergabegerät der Videoübertragung diente eine VR-Brille, die mit einem Kabel an einem Rechner angeschlossen war. Die Anforderungen an die Datenübertragung konnten durch die Nutzung des bidirektionalen WebRTC-Protokolls erfüllt werden. Dieses ermöglichte die Video- und Audioübermittlung sowie einen Datenkanal für die Übermittlung der Kopfbewegung.
Als wichtigstes Ergebnis sind die Entwicklung und Inbetriebnahme der Testanwendung zur Durchführung von Netzwerkmessungen mittels perfSONAR, einer Network-Performance-Monitoring-Software, zu nennen. Aufgrund von Limitationen technischer, infrastruktureller und zeitlicher Natur konnten nicht alle Aspekte vollumfänglich untersucht und umgesetzt werden. Basierend auf den erzielten Resultaten wurde eine Roadmap für die Rekonfiguration der 5G-Infrastruktur erstellt und weiter Entwicklungsmöglichkeiten für den Versuchsaufbau aufgezeigt.
Künstliche Intelligenz (KI) und Cloud-Computing sind treibende Kräfte der digitalen Transformation und Erfolgsfaktoren für eine nachhaltige Wettbewerbsfähigkeit. Insbesondere der Bereich der KI-basierten Audiosignalverarbeitung weist ein hohes Potential zur Fehlererkennung von Maschinen und Anlagen auf. Jedoch scheitert die Umsetzung von KI-Projekten oftmals bereits vor Projektstart aufgrund fehlender Fachkenntnisse der Unternehmen.
Das Ziel dieser Masterarbeit ist zu zeigen, wie KI-basierte Audioklassifizierungssysteme unter Verwendung von Cloud-Services implementiert werden können. Zu diesem Zweck werden die einzelnen Phasen eines KI-Projektes, von der Datenanalyse bis hin zur Bereitstellung eines fertig trainierten Modells in der Cloud-Umgebung, betrachtet. Frühere Arbeiten haben gezeigt, dass State-of-the-Art-Audioklassifizierungs-systeme auf Konzepten wie der Fourier-Analyse, Convolutional Neural Networks (CNN) und Recurrent Neural Networks (RNN) basieren. Anhand dieser Methoden wurden insgesamt 33 Klassifizierungsmodelle mittels Python, PyTorch und der cloudbasierten Plattform Google Vertex AI implementiert, trainiert und verglichen. Aufgrund der dynamischen Charakteristik der Audiodateien, wurde dazu ein komplexer Datensatz der Plattform Kaggle als Entwicklungsgrundlage verwendet (BirdCLEF2022).
Das ausgewählte Modell wurde hinsichtlich der Vorhersagegenauigkeit optimiert und auf Vertex AI zur Beantwortung von Vorhersageanfragen veröffentlicht. Dabei konnte ein auf der CNN-Architektur basierendes Klassifizierungsmodell entwickelt werden, das neun unterschiedliche Klassen mit einer Vorhersagegenauigkeit von 80,4 % klassifiziert. Weitere Ideen zur Verbesserung des Ergebnisses konnten vorgestellt werden, wodurch bewiesen wird, dass schwierige Daten mit einer Vorhersagegenauigkeit von über 90 % klassifiziert werden können. Diese Masterarbeit zeigt, wie ein KI-basiertes Audioklassifizierungssystem unter Verwendung verschiedener Cloud-Dienste und State-of-the-Art-Deep-Learning-Methoden, entwickelt werden kann.
Um in der modernen Fertigung Prototypen schnell, kostengünstig und ohne Umwege in Musterteile umzusetzen, wird sehr oft auf die Fertigungsmethode „Rapid Prototyping“ zurückgegriffen. Eine Form dieses Verfahrens ist die Schmelzschichtung (Fused Filament Fabrication, FFF), bei der das Werkstück schichtweise durch den Auftrag eines thermoplastischen Kunststoffes aufgebaut wird. Eine einfache Möglichkeit, Bauteile nach dem FFF-Verfahren herzustellen, bietet der Dreiachs-3D-Druck, für welchen sich bei anspruchsvolleren Bauteilen jedoch wesentliche Einschränkungen, wie etwa aufwendige Stützstrukturen oder optische Fehler, ergeben.
Ziel dieser Masterarbeit ist es zu überprüfen, ob sich die Einschränkungen eines Dreiachssystems durch den Einsatz eines Industrieroboters mit sechs zur Verfügung stehenden Achsen verbessern oder ganz beseitigen lassen. Dieser soll die Methode des „bewegten Werkstückes“ nutzen, wodurch sich das Bauteil an der kinematischen Kette des Roboters befindet und dieser zu einer stillstehenden Druckeinrichtung verfährt. Um das Ziel zu erreichen, wird ein Industrierobotersystem innerhalb einer rechnerunterstützten Fertigung (Computer-Aided Manufacturing, CAM) aufgebaut, mit welchem für definierte Bauteile Fertigungsoperationen, Simulationen sowie Validierungen durchgeführt werden. Am Ende wird durch einen Postprozessor ein ausführbarer Maschinencode erstellt, mit welchem Druckversuche am realen Robotersystem durchgeführt werden.
Das Resultat der Arbeit zeigt, dass sich durch dieses Mehrachssystem viele Vorteile in Bezug auf den konventionellen 3D-Druck sowie neue Anwendungsfelder ergeben, wodurch eine Weiterentwicklung für die Zukunft in jedem Fall Sinn macht.
In Fertigungsbetrieben sind Produktionsmaschinen oft nicht optimal aufgestellt. Die Gründe dafür sind sich ständig ändernde Kundenanforderungen oder dass Maschinen gemäß ihrem Kaufdatum am nächstmöglichen Standort aufgestellt werden. Bei Optimierungsmaßnahmen im Laufe eines Fabriklebenszyklus werden oft Kompromisse eingegangen. Des Weiteren liegt der Fokus oft auf der Umsetzung eines Projektes. Diese Arbeit verfolgt einen ganzheitlichen Ansatz für die gesamte Produktion.
Ziel dieser Arbeit ist die Optimierung einer Produktionsanlage von Metallbearbeitungsmaschinen. Diese Optimierung geschieht in Form einer neuen Ausarbeitung des Maschinenlayouts. Dabei sollen Wegstrecken des Fertigungspersonals verkürzt und eine offenere Anordnung der Bearbeitungsmaschinen erstellt werden, um frühzeitig Maschinenstillstände zu erkennen. Zur Erreichung der Ziele werden die Materialflussanalyse und Werkzeuge aus dem Lean Management angewandt. Für die Materialflussanalyse wird eine Simulationsstudie unter Verwendung verschiedener Ausprägungen des Layouts implementiert. Als Tool aus dem Lean-Management wird Gemba-Kaizen angewandt, wobei spezielle Visualisierungsmethoden mittels 3D-Modellen, Virtual Reality und Augmented Reality vorgestellt werden.
Das Ergebnis dieser Arbeit zeigt eine Durchsatzsteigerung durch Vermeidung von Verschwendung auf. Das Potenzial dieser Verbesserungsmaßnahme wird mithilfe einer Simulationsstudie in Zahlen ausgewertet und dargestellt. Eine wesentliche Erkenntnis dieser Arbeit ist, dass die Umsetzung von Optimierungsmaßnahmen eine Kombination fachbereichsbereichsübergreifender Fähigkeiten und Kenntnisse erfordert. Diese Arbeit soll als Wegweiser für zukünftige Optimierungsmaßnahmen dienen.
Durch Unfälle und Erkrankungen des zentralen Nervensystems kommt es häufig zu Beeinträchtigungen des alltäglichen Lebens von Betroffenen. Besonders bei der Neurorehabilitation handelt es sich teilweise um einen langwierigen Prozess, bei welchem durch den Einsatz von therapieunterstützenden Technologien die Häufigkeit und Dauer des Trainings gesteigert werden können. Daher beschäftigt sich diese Arbeit mit der Entwicklung eines Handmotorik-Trainingsgeräts, welches den Genesungsprozess unterstützen soll.
Das Ziel dabei ist, das Gerät nicht nur aus ingenieurtechnischer Sicht zu entwickeln, sondern in einem frühen Stadium die Expertise von Fachexpert*innen miteinzubeziehen. Zu Beginn wird ein Konzept erarbeitet, wonach ein erster Prototyp entwickelt wird. Dessen Evaluierung wird sowohl nach technischen Limitationen, als auch bezüglich praktischer Anwendbarkeit durchgeführt. Für letzteres wird eine Testung mit anschließender Befragung von 14 Ergotherapeut*innen durchgeführt, wonach mittels Usefulness, Satisfaction and Ease of Use (USE)-Questionnaire und eines Fragebogens qualitative und quantitative Daten erhoben und folglich ausgewertet werden. Basierend auf den Ergebnissen der gesamten Evaluierung werden neue Anforderungen abgeleitet, um das Trainingsgerät zielgerichtet weiter zu entwickeln.
Eine qualitative Evaluierung zeigt bei 7 von 10 Antwortkategorien der kritischen Fragestellungen eine Verbesserung im Zuge der Weiterentwicklung. Weiters kann für die Verbesserungen hinsichtlich Verfahrgeschwindigkeit, Vibrationen und Geräuschemission ein quantitativer Nachweis erbracht werden. Hinsichtlich der Relevanz zeigt sich, dass sich alle Befragten vorstellen können, solch ein Gerät im therapeutischen Bereich einzusetzen und das Training damit kognitive und motorische Fähigkeiten verbessern kann.
Diese Arbeit beschäftigt sich mit dem Kalibrieren von Schwingungssensoren. Dabei werden unterschiedliche Arten von Schwingungssensoren betrachtet. Es werden auch die verschiedenen Möglichkeiten diskutiert, wie Schwingungssensoren kalibriert werden können. Im weiteren Verlauf wird jedoch nur die Vergleichsvariante behandelt. Für diese Variante wurde die Software in dieser Arbeit entwickelt. Dabei wird das Messgerät mit einem Frequenzgenerator angesprochen sowie parametriert und die Messdaten werden erfasst sowie verarbeitet.
Die Eingangskanäle können, wenn vorhanden, mithilfe der im Sensor abgespeicherten Daten parametriert werden. Diese Einstellungen können über die grafische Bedienoberfläche eingesehen werden. Sollte der Prüfling über keinen Speicher verfügen oder dieser defekt sein, können die Daten auch manuell eingegeben werden.
Zu einer Kalibrierung gehört auch ein dementsprechendes Protokoll, das dem Sensor die Einhaltung seiner angegebenen Grenzwerte bescheinigt, sofern dies das Ergebnis der Kalibrierung ist. Da diese Erstellung mit Aufwand verbunden ist und dabei auch Fehler unterlaufen können, wurde dies in dieser Arbeit vollständig automatisiert.
Breweries employ numerous heat-giving processes, especially during brewing and fermentation, so most breweries have industrial ammonia refrigeration plants, which work like classic refrigeration units. There, the gaseous ammonia gets compressed, condensed, and distributed to the applications where heat has to be taken out off. Here an expansion valve reduces pressure so the liquid ammonia can absorb the heat from the process fluid to be cooled, evaporating the liquid ammonia. At this point, the ammonia, carrying latent and sensible heat, is sucked back to the compressors, and the cycle begins again.
This thesis analyses the ammonia refrigeration plant of the brewery Göss, one of the largest breweries in Austria, which requires about 20% of electrical energy and consumes nearly one quarter of the brewery’s water usage. Currently, rising energy costs necessitate making the refrigeration plant more efficient. Hence, research should investigate the future cooling capacity load of the plant to discover how to make the cooling process operate more efficient. To discover how the system operates, this thesis elaborates on the basic theoretical foundation of refrigeration plants and their thermodynamic fundamental principle.
To create the mentioned forecast, this study examines process recordings and evaluations of the main consumers cooling demand. These selected apparatuses are the external beer cooler, the brew water cooler for cooling the hot wort, which is the beer mixture before the fermentation and the fermentation process itself in two different types of tanks. Using these data, the researcher creates abstracted load forecasts for these consumers to control the delivering pumps of liquid ammonia to the right amount of mass flow.
Subsequently, the process recordings of the fermentation tanks are divided into four different process phases. These stages need various quantities of cooling fluid, and the last stage, the main cooling and draining phase, requires the largest amount of liquid ammonia delivered. Finally, the external beer cooler and brew water cooler are investigated as recurring and evenly ongoing processes so that they are predictable in the cooling load.
In closing, the researched recordings provide an overview and abstracted view of the cooling load required by the selected consumers. Additionally, further investigation could investigate the possibility of controlling distributing pumps to deliver the sufficient amount of refrigerant medium, at the right time, in a more efficient way.
Immer volatilere Märkte, stetig neue Kunden*innenanforderungen und erbitterte Preisschlachten mit Markteilnehmern*innen und das alles in Kombination mit verkürzten Produktlebenszyklen. Wie soll sich das langfristig gerade für mittelständische Unternehmen ausgehen? Die digitale Transformation ist dahingehend ein omnipräsentes Thema in der Industrie, wird sie doch als Löser vieler dieser Probleme gesehen.
Doch es stellt gerade das erforderliche Know-How für die Durchführung von digitalen Transformationsprozessen insbesondere traditionelle Unternehmen vor wesentliche Herausforderungen. Aus diesem Grund verfolgt die vorliegende Masterarbeit das Ziel, genau solchen Unternehmen eine Unterstützung in Form eines Umsetzungsleitfadens, für die digitale Transformation von Messprozessen zu bieten. Es wird dabei anhand eines realen Unternehmens der produzierenden Industrie methodisch der Frage nachgegangen, wie gegenwärtig überwiegend analoge Messprozesse, mit hohem Grad an menschlicher Interaktion, systematisch digital transformiert werden können.
Hierzu wird zunächst eine fundierte Literaturrecherche betrieben, um dabei den Hintergrund und die Fachtermini digitaler Transformation sowie Digitalisierung zu klären. Im eigenen Kapitel der digitalen Transformation wird nochmals aus Managementsicht ein Blick auf dieses Thema geworfen, bevor im Kapitel zu modellbasierter digitaler Transformation konkret auf Vorgehensmodelle, Referenzmodelle und Reifegradmodelle eingegangen wird. Auf Basis der Erkenntnisse aus den vorangegangenen Kapiteln wird im Kapitel fünf ein eigenes Reifegradassessment-Tool entwickelt, mit dem der digitale Reifegrad bestehender Prozesse erfasst werden kann. Im Anschluss daran erfolgt die praktische Anwendung dieses Tools durch eine konkrete Betrachtung mehrerer Messprozesse des Beispielunternehmens sowie einer konsekutiven Identifikation konkreter digitaler Transformationspotentiale. Das vorletzte Kapitel zeigt die praktische Umsetzung von Digitalisierungsmaßnahmen an den Messprozessen des Unternehmens, bevor im abschließenden Kapitel die vorliegende Masterarbeit nochmals kritisch resümiert wird.