Einfache Installation und Konfiguration von Big-Data-Clustern
Sie wissen nicht immer, wonach Sie bei Datenanalysen suchen, oder was Sie dabei finden werden. Daher kann vorher auch nicht alles definiert werden. Dennoch benötigen Ihre Mitarbeiter Zugriff auf die Daten und müssen damit experimentieren können, ohne dass die Sicherheit beeinträchtigt wird oder Risiken entstehen. Hadoop ermöglicht die Speicherung und Durchsuchung jeglicher Art von Daten, während Datenmanagementplattformen für die nötige Sicherheit und den Datenschutz sorgen. Das Wesentliche dabei ist, dass Sie nicht mit den Herausforderungen typischer IT-Infrastrukturen zu kämpfen haben.
Hadoop ist eine Big-Data-Analyseplattform, mit der Sie wesentlich schneller Kundeneinblicke erhalten. Im Gegensatz zu herkömmlichen relationalen Datenbanken, bei denen Informationen vor dem Laden in eine bestimmte Form konvertiert werden müssen, speichert Hadoop Daten in ihrem Rohformat (d. h. als unstrukturierte Daten). Sie können eine gemeinsame Quelle (oder einen „Data Lake“) erstellen, das auf einem Server-Cluster ausgeführt wird, auf welches alle Benutzer in Ihrer Organisation Zugriff haben.
Allerdings müssen Hadoop-Cluster mit geeigneten Kontrollmechanismen und Sicherheitsmaßnahmen verwaltet werden.
Cisco UCS für Big Data ist vorab für Datenmanagementplattformen der Enterprise-Klasse getestet und validiert, beispielsweise für MapR, Cloudera, Hortonworks, und IBM (und viele weitere). Mit diesen Plattformen können Sie bei Verwendung von Hadoop-basierten Anwendungen Daten schnell und einfach speichern, schützen und auf diese zugreifen.
Durch die Big-Data-Automatisierung, verfügbar im Rahmen der Cisco ONE Enterprise Cloud Suite, können Hadoop-Cluster wesentlich schneller bereitgestellt werden. Als Orchestrierungsplattform für Ihr Rechenzentrum stellt sie sicher, dass Infrastrukturebenen synchronisiert, optimiert und auf Anfrage verfügbar gemacht werden.
Hadoop- und Splunk-Cluster nach Bedarf bereitstellen