Datenanalyse in großem Maßstab

Was ist Datenanalyse in großem Maßstab?
Datenanalyse in großem Maßstab ist der Prozess der Anwendung von Datenanalysetechniken auf eine große Datenmenge, typischerweise in Big-Data-Repositories. Es verwendet spezialisierte Algorithmen, Systeme und Prozesse, um Informationen in einer Form zu überprüfen, zu analysieren und darzustellen, die für Organisationen oder Endnutzer aussagekräftiger ist.

Die Analyse großer Datenmengen ist ein breiter Begriff, der eine Reihe verschiedener Tools und Systeme zur Verarbeitung großer Datenmengen umfasst. In der Regel wird die Datenanalyse in großem Maßstab über zwei gängige Techniken durchgeführt: parallele Datenbankverwaltungssysteme (DBMS) oder mit MapReduce betriebene Systeme. Das parallele DBMS-System erfordert, dass sich die Daten in einem DBMS-unterstützten Schema befinden, während die MapReduce-Option Daten in beliebiger Form unterstützt. Darüber hinaus können die Daten, die bei einer großangelegten Datenanalyse extrahiert oder analysiert werden, in verschiedenen unterschiedlichen Formen wie Tabellen, Graphen, Abbildungen und statistischen Analysen in Abhängigkeit vom Analysesystem angezeigt werden.


War die Erklärung zu "Datenanalyse in großem Maßstab" hilfreich? Jetzt bewerten:

Weitere Erklärungen zu