Big Data

Big Data und Data Mining auf dem Prüfstand – worum geht es überhaupt?

Es handelt sich vor allem um große Datenmengen – egal in welcher Konstellation. Sei dies im täglichen Leben oder durch Informationsaustausch im Netz oder seien dies im Unternehmen anfallende Daten sowie Schriftstücke. Große Datenmengen machen eine effektive Datenorganisation erforderlich. In Zeiten der Digitalisierung hat das erfasste und gespeicherte Datenvolumen exponentiell zugenommen. Heutzutage speichern nicht nur die großen Firmen die Daten und das Verhalten ihrer Kunden sondern auch die Konsumenten sammeln fleißig mit und erfassen ihre Gewohnheiten und Abläufe mit Fitnesstrackern, Smartwachtes und Co. Der Weg zum gläsernen Menschen ist durch diese Entwicklung geebnet. Die Frage ist, wohin wird diese Entwicklung in den nächsten Jahren gehen? Werden wir für und die Vorteile der Big Data nutzen können oder werden die Datenmengen für uns und unsere Gesellschaft ein Problem?

 

Unternehmen müssen heutzutage gewaltige Mengen an Daten sowohl speichern als und verwalten. Es geht hierbei also grundsätzlich um die Art der Datenkommunikation und wie diese am besten und vor allem am effektivsten für das Unternehmen gestaltet werden kann – denn die Unternehmen benötigen kompetente Lösungen und innovative Techniken zur effektiven Datenverarbeitung. In den folgenden Abschnitten soll daher zum einen auf Big Data selbst und auch auf das Mining von Daten eingegangen werden. Des Weiteren sollen auch Mittel und Wege zur Lösung komplexer Datenverarbeitungskonzepte vorgestellt werden.

 

Um welche Datenmassen geht es überhaupt?

 

Nimmt man sich z.B. die aktuellen, sozialen Netzwerke wie z.B. Twitter als Beispiel, so fallen hier bis zum heutigen Tag ca. 300 Milliarden versendete Twitter-Nachrichten an – rund 5.000 pro Sekunde. Schnell wird klar, dass die Verwaltung und Verarbeitung der Daten nicht von Menschenhand bzw. von herkömmlichen Systemen gestemmt werden kann. Vielmehr benötigt es hier eine effiziente und ressourcenschonende Möglichkeit, die Daten zu verarbeiten. In Frage kommen hier vor allem Outsourcing-Methoden. Die Serverinfrastruktur im eigenen Haus wird kurzfristig stillgelegt – externe Server werden angemietet, die die eigenen Datenmengen zum einen aufbewahren, abrufbar machen und zudem auch vor Verlust schützen. Diese Methode wird auch Cloud genannt, weil sie die Informationen aus einem kleinen System extrahiert und diese auf einem übergelagerten, großen System abspeichert. Cloud-Rechner ermöglichen es in diesem Zusammenhang jedoch nicht nur, die Datenmengen zu speichern und vor Verlust zu schützen, vielmehr erlauben diese auch eine qualitativ hochwertige Auswertung und ein ausfindig machen der Daten – das so genannte Data Mining System. Egal ob Muster, Modelle oder Aussagen – das Mining von Daten ist ein ebenso wichtiges Gebiet wie das Extrahieren der Daten selbst.

 

Wie können große Datenmengen ausgewertet werden? – QlikView als vielversprechende Software-Lösung

 

Eigene Ressourcen schonen und Kosten sparen sowie auch ein individueller Support und Datensicherung – all dies sind die Vorteile des Cloud-and-Mining-Modells. Um den teilweise ungeheuren Datenberg auch beherrschbar zu machen, bieten Software-Pakete wie z.B. QlikView entsprechende Hilfe. Dank Visual-Analytics-Plattformen und einer Self-Service-Datenvisualisierung sowie Reporting Dashboards und speziell eingebetteter Analyseanwendungen bietet die Data-Discovery-Plattform umfangreiche Möglichkeiten, die Daten in der Cloud zu analysieren. Das Stichwort hierbei lautet assoziative Datenindizierung – dies ist der Motor dieser Technologie. So kann der User nicht nur althergebrachte Auswertungsfunktionen anwenden, sondern kann diese auch intuitiv analysieren und kann Verbindungen zwischen den jeweiligen Daten erkennen.


Dank Visual-Analytics-Plattformen und einer Self-Service-Datenvisualisierung sowie Reporting Dashboards und speziell eingebetteter Analyseanwendungen bietet die Data-Discovery-Plattform QlikView umfangreiche Möglichkeiten um Daten zu analysieren