scholarly journals Statistische Modelle in der Gefäßchirurgie

2017 ◽  
Vol 22 (6) ◽  
pp. 412-419
Author(s):  
U. Mansmann
Keyword(s):  
Diagnostica ◽  
2021 ◽  
pp. 1-12
Author(s):  
Sebastian Gary ◽  
Wolfgang Lenhard

Zusammenfassung. Ziel der Untersuchung war ein systematischer Vergleich verschiedener Verfahren zur Normdatenmodellierung. Der auf Taylor-Polynomen basierende semi-parametrische Normierungsansatz (SPCN) mittels cNORM ( Lenhard, Lenhard & Gary, 2018 ) wurde parametrischen Anpassungen basierend auf Generalized Additive Models for Location, Scale and Shape (GAMLSS; Stasinopoulos et al., 2018 ) gegenübergestellt und die Normierungsgüte in Abhängigkeit der Faktoren Normstichprobengröße ( n = 525, 700, 1 050, 1 750), Itemanzahl (i = 10, 20, 40) sowie Itemschwierigkeit analysiert. Die Modellierung erfolgte kreuzvalidiert auf der Basis simulierter Rohdaten von Normierungs- und Validierungsstichproben: Mittels der verschiedenen Verfahren wurden auf der Basis der Normierungsstichprobe statistische Modelle berechnet und auf die Validierungsstichprobe übertragen, um die jeweils vorhergesagten mit den tatsächlichen Normwerten zu vergleichen. Der semi-parametrische Ansatz lieferte in den meisten Fällen den geringsten Normierungsfehler und damit das beste Normierungsergebnis. Die deutlichsten Unterschiede fanden sich bei leichten bzw. schweren Testskalen in Verbindung mit einer kleinen Itemanzahl. Der Einfluss der Normstichprobengröße war bei allen Methoden vergleichbar.


Biometrie ◽  
2010 ◽  
pp. 15-29
Author(s):  
Lutz Dümbgen
Keyword(s):  

physioscience ◽  
2021 ◽  
Vol 17 (01) ◽  
pp. 25-33
Author(s):  
Iris Sterkele ◽  
Pierrette Baschung Pfister ◽  
Ruud Knols ◽  
Eling D de Bruin
Keyword(s):  

Zusammenfassung Hintergrund Messungen bilden die Grundlage des wissenschaftsbasierten therapeutischen Vorgehens. Messfehler sind jedoch ein verbreitetes Problem. Um Fehlerquellen zu ermitteln, sind erweiterte statistische Modelle notwendig. Im Gegensatz zur klassischen Testtheorie ermöglicht die Generalisierbarkeitstheorie, mehrere Fehlerquellen gleichzeitig zu untersuchen. Ziel Vergleich der klassischen Testtheorie und der Generalisierbarkeitstheorie anhand eines physiotherapeutischen Beispiels zur Reliabilitätsermittlung und deren Ergebnisse. Methode Die Messeigenschaft „Reliabilität“ wurde anhand von Daten einer vorangegangenen Reliabilitätsstudie, in der die klassische Testtheorie zum Einsatz kam, untersucht. Dazu wurde exemplarisch eine Generalisierbarkeitsstudie durchgeführt. Ergebnisse Die Variabilität ging hauptsächlich von den Probanden und der Probanden-Untersucher-Interaktion aus. Unabhängig von fixen oder zufälligen Facetten waren die Generalisierbarkeitskoeffizienten für alle Bedingungen (overall, inter-rater, intra-Messzeitpunkte) exzellent. Schlussfolgerung Die Ergebnisse deuten darauf hin, dass die Generalisierbarkeitstheorie gegenüber der klassischen Testtheorie Vorteile hat. Diese ermöglicht es, einen wirkungsvollen und effizienten Einsatz von Messinstrumenten im klinischen Alltag zu ermitteln.


2021 ◽  
Author(s):  
Jannik Wilhelm ◽  
Ulrich Blahak ◽  
Robert Feger ◽  
Kathrin Wapler ◽  
Roland Potthast ◽  
...  

<p>Trotz signifikanter Verbesserungen in den vergangenen Jahren sind die Unsicherheiten insbesondere bei der Vorhersage von Gewittern und ihren Begleiterscheinungen wie Starkregen, Hagel oder Sturmböen selbst mit konvektionsauflösenden Wettervorhersagemodellen der Wetterdienste noch immer zu groß, um daraus verlässliche und möglichst punktgenaue Warnungen abzuleiten. Für kurzfristige Präventionsmaßnahmen bis hin zur Evakuierung von Menschen beispielsweise bei Veranstaltungen im Freien sind präzise Vorhersagen auf kurzen Zeitskalen jedoch unerlässlich. Mit den Verfahren der Echtzeit-Vorhersage (Nowcasting) lassen sich Gewitterereignisse und ihre wesentlichen Merkmale identifizieren und aus der Kenntnis der Historie für Zeitskalen von einigen Minuten bis zu wenigen Stunden extrapolieren beziehungsweise vorhersagen. Die üblicherweise kurze Lebensdauer konvektiver Ereignisse und deren schnelle Entwicklung während instabiler Wetterlagen führen jedoch oftmals zu einer erheblichen Diskrepanz zwischen den Nowcasting-Vorhersagen und den beobachteten Wetterbedingungen. Hier besteht folglich ein großes Verbesserungspotential.</p> <p>Präsentiert wird eine Analyse der Lebenszyklen von konvektiven Zellen in Deutschland, welche die vorherrschenden atmosphärischen Bedingungen miteinbezieht. Außerdem werden verschiedene statistische Modelle zur Abschätzung der Lebensdauer und Größe konvektiver Zellen im Sinne des Nowcastings vorgestellt. Ein Vergleich dieser Modelle ermöglicht es zu beurteilen, welche Methode am besten geeignet ist, Nowcasting-Verfahren für Warnmanagementsysteme von Wetterdiensten zu verbessern.</p> <p>Unter Verwendung von Daten des radarbasierten Zellverfolgungsalgorithmus KONRAD des Deutschen Wetterdienstes (DWD) wurden objektbasierte Lebenszyklen von isolierter Konvektion (Einzel- und Superzellen) für die Sommerhalbjahre 2011-2016 analysiert. Zusätzlich wurde eine Vielzahl konvektionsrelevanter atmosphärischer Variablen (z.B. Deep Layer Shear, CAPE, Lifted Index), die mittels hochauflösender COSMO-EU Assimilationsanalysen berechnet wurden, mit den Lebenszyklen kombiniert. Auf der Grundlage dieses kombinierten Datensatzes werden statistische Zusammenhänge zwischen verschiedenen Zellattributen und atmosphärischen Variablen diskutiert. Wie die Analysen zeigen, sind insbesondere Maße der vertikalen Windscherung aufgrund ihres Einflusses auf die Organisationsform der Zellen geeignet, zwischen solchen mit kurzer und langer Lebensdauer zu unterscheiden. Erhöhte thermische Instabilität ist mit einem schnelleren anfänglichen Zellwachstum verbunden, was eine größere horizontale Zellexpansion (Zellfläche) während des Lebenszyklus und indirekt eine längere Lebensdauer begünstigt.</p> <p>Drei verschiedene multivariate Methoden (logistische Regression, <em>Random Forest</em>, nichtlinearer polynomialer Ansatz) wurden als statistische Modelle zur Schätzung der Lebensdauer und der maximalen Zellfläche konvektiver Zellen unter Verwendung eines Ensemble-Ansatzes untersucht ("Überwachtes Maschinelles Lernen"). Die Vorhersagegüte der Modelle wurde mittels probabilistischer Evaluation bewertet und die Bedeutung der anfänglichen Zellentwicklung und der atmosphärischen Variablen für den weiteren Verlauf des Lebenszyklus quantifiziert. Es werden Potentiale und Grenzen der drei Methoden aufgezeigt, die verdeutlichen, dass die Wahl einer geeigneten Methode von dem genauen Nowcasting-Problem bzw. der Anforderung abhängt. Die Untersuchungen legen nahe, dass die maximale Zellfläche konvektiver Zellen besser abgeschätzt werden kann als ihre Lebensdauer. Atmosphärische Variablen, die den dynamischen und thermodynamischen Zustand der Atmosphäre charakterisieren, sind zu Beginn der Zellentwicklung besonders wichtig für die Abschätzung der zukünftigen Entwicklung der Zellattribute, während mit zunehmendem Zellalter die Zellhistorie immer relevanter wird.</p>


Stochastik ◽  
2005 ◽  
pp. 509-539
Author(s):  
David Meintrup ◽  
Stefan Schäffler
Keyword(s):  

Sign in / Sign up

Export Citation Format

Share Document