künstliches neuronales netz
Recently Published Documents


TOTAL DOCUMENTS

9
(FIVE YEARS 5)

H-INDEX

1
(FIVE YEARS 1)

2019 ◽  
Vol 86 (11) ◽  
pp. 661-672 ◽  
Author(s):  
Niclas Eschner ◽  
Lukas Weiser ◽  
Benjamin Häfner ◽  
Gisela Lanza

ZusammenfassungDas selektive Laserstrahlschmelzen (LBM) steht aktuell an der Schwelle zum Einsatz für Kleinserien. Ein wesentlicher Nachteil des Verfahrens ist aktuell noch die geringe Reproduzierbarkeit der Prozessqualität. Einige aktuelle Forschungsarbeiten konzentrieren sich deshalb auf die Integration optischer Messtechnik zur Prozessüberwachung. Neben den optischen Verfahren zeigen erste Untersuchungen, dass auch akustische Sensoren zur Prozessüberwachung ein vielversprechender Ansatz sind. Eine große Herausforderung bei den akustischen Daten stellt die Datenverarbeitung dar, da das akustische Rohsignal nur schwer zu interpretieren ist. In dieser Arbeit wird ein neues Konzept für ein akustisches Prozessüberwachungssystem vorgestellt und in eine Versuchsumgebung integriert.Zum Aufzeichnen akustischer Signale werden in einem Design of Experiments Prozessparameter gezielt variiert und Testkörper verschiedener Bauteilqualität aufgebaut. Für einen ersten Nachweis der Eignung des Messsystems zur Überwachung des Prozesses wird ein künstliches neuronales Netz trainiert, um die verwendeten Prozessparameter (drei Laserleistungen) zu bewerten. Damit kann gezeigt werden, dass diese Messtechnik das Potential hat, den Prozess zu überwachen.


2019 ◽  
Vol 109 (11-12) ◽  
pp. 845-846
Author(s):  
P. Gembaczka

Von der Waschmaschine über Blutdruckmessgeräte bis hin zu Wearables – Mikrocontroller sind in fast jedem technischen Gerät verbaut. Mit „AIfES“ ist Forscherinnen und Forschern am Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme IMS in Duisburg jetzt die Entwicklung einer sensornahen Künstlichen Intelligenz für Mikrocontroller und eingebettete Systeme gelungen, die ein voll konfigurierbares künstliches neuronales Netz umfasst. AIfES soll die Möglichkeit bieten, kleine intelligente Mikroelektroniken und Sensoren zu entwickeln, die keine Verbindung zu einer Cloud oder zu leistungsfähigeren Computern benötigen und sogar in der Lage sind, selbst zu lernen.


2006 ◽  
Vol 17 (2) ◽  
pp. 76-87 ◽  
Author(s):  
Florentina Maria Fritz

Zusammenfassung. Die Wirkung von Musik auf den Menschen ist unumstritten und kann mit Hilfe naturwissenschaftlicher Methoden untersucht werden. Eine neu entwickelte Methode zur Analyse der Synchronisation zwischen Musik und Hörer bzw. Musiker soll in Folge unterstützt durch ein künstliches neuronales Netz dargestellt werden. Dieser Ansatz ermöglicht einen direkten Vergleich zwischen physiologischen und musikalischen Daten und schafft dadurch eine Möglichkeit, die Wirkung von Musik auf den Menschen zu untersuchen. Künstliche neuronale Netze lassen sich sehr vielseitig einsetzen, so beispielsweise im Bereich der Mustererkennung. Im Speziellen ist es Aufgabe des eingesetzten neuronalen Netzes, biologische Zustände vegetativer Funktionen des Menschen (vegetativ-emotionale Reaktionen, charakterisiert durch den Parameter Hautwiderstand, vegetativ-nervale Reaktionen, bestimmt durch den Parameter Hautpotenzial, und motorisch-muskuläre Reaktionen, bestimmt durch den Parameter EMG) und “musikalische Zustände“ in musikalischen Parametern (durchschnittlicher Lautstärkewechsel, aufsummiert normiertes Frequenzdichtespektrum und Tonfolgedichte) zu klassifizieren. Zu diesem Zwecke wird zunächst die Methodik der Chronobiologischen Regulationsdiagnostik nach Hecht/Balzer beschrieben, welche sich im Wesentlichen mit der Analyse von Perioden und Rhythmen in Zeitreihen befasst, und im weiteren Verlauf dieses Beitrags in weiterentwickelter Form als Grundlage für die Klassifizierung durch das neuronale Netz dient. Die Ergebnisse des entwickelten neuronalen Netzes werden evaluiert und erste praktische Anwendungsbeispiele des Netzes aus dem Bereich Musikwirkung präsentiert sowie eine Relevanz der vorgestellten Methodik im Bereich der Musiktherapie angesprochen.


Sign in / Sign up

Export Citation Format

Share Document