Analyse großer Datenmengen (Big Data Analysis)

Im Zuge ständig wachsender Datenmengen in Forschung und Praxis stellt die Analyse dieser großen und vielfach noch ungenutzten Datensätze bereits zu Beginn vieler Projekte ein erhebliches Problem dar. Insbesondere bei zeitgebundenen Messungen ist die dabei wirksame Dynamik mit den klassischen statistischen Verfahren nur bedingt und unter großem Aufwand auswertbar. Für statische Datenstrukturen liefern sie allerdings wohldefinierte und durchaus brauchbare Kennwerte erster (arithmetisches Mittel, Varianz, Korrelation, etc.) und höherer Ordnung (Ergebnisse von Varianz-, Cluster-, Faktorenanalysen, etc.).

Die zur Klärung der durch die Daten und Kennwerte abgebildeten Prozesseigenschaften der gemessenen Merkmale notwendigen mathematischen Verfahren (z.B. Differentialgleichungen) sind sowohl methodisch aufwendig und, was deutlich schwerwiegender ist, ausgesprochen voraussetzungsreich in ihren formalen Ansprüchen an die verwendeten Messskalen. 

Unter diesen für komplexe Sachverhalte geradezu typischen Bedingungen eignet sich der Einsatz der von Deplecto entwickelten Methode ANODYS (Analysis of Dynamic Structures) (→ Details → Methoden → ANODYS - Big Data). Insbesondere werden mit ihr nicht-lineare Zusammenhänge offengelegt, die gerade in komplexen dynamischen Sachverhalten von außerordentlicher Bedeutung sind.

Ihre Ergebnisse bilden nicht zuletzt eine ideale Grundlage für den Einstieg in einen Modellierungsprozess (→ Modellierungen → Netzwerke und Modelle). 

Zeigt Analyse von Dynamischen Strukturen Diagramm