Wimpfener Straße 29, 74172 Neckarsulm
info@seamless-analytics.de

Bringen Sie Ihre Daten mit uns auf Vordermann!

Dienstleistungen rund um die Datenspeicherung & -verarbeitung auf Basis des Apache­ Hadoop® Frameworks

BERATUNG

Sollten Sie mit dem Gedanken spielen, sich eine Hadoop Landschaft anzuschaffen, um damit neue Möglichkeiten zur Speicherung und Analyse von Daten zu eröffnen, wenden Sie sich gerne an uns.

Auch wenn Sie bereits eine bestehende Hadoop Landschaft besitzen, aber hierzu noch Beratung benötigen, helfen wir Ihnen ebenfalls sehr gerne, die weiteren Schritte umzusetzen.
UMSETZUNG

Vom Prototypen-Bau über Projektbegleitung unterstützen wir Sie gerne bei der Umsetzung Ihrer Ideen. Über eine gemeinsame System-Untersuchung können wir in Zusammenarbeit mit Ihnen Lösungsvorschläge erarbeiten und Ihnen bei deren Umsetzung mithelfen.

SCHULUNG

Sie wollen Ihre Mitarbeiter in diesen Themenbereichen weiterbilden? Dann wenden Sie sich an uns. Gerne bieten wir individuelle Schulungen für Sie und Ihre Kollegen an.

Kernthemen sind hierbei die Installation und  der allgemeine Aufbau eines Hadoop Systems, die Arbeitsweise und Verwendung der enthaltenen Tools, sowie die Vorstellung einfacher Praxisbeispiele.
Ein paar Worte über uns

Wir sind Ihre Berater für Themen rund um die Datenverarbeitung mit Apache­ Hadoop®

Durch unsere mehrjährigen Erfahrungen im Bereich der Datenverarbeitung mit Apache Hadoop können wir Ihnen praxisnahe Unterstützung bieten. Unsere Themenschwerpunkte stellen dabei besonders die Speicherung und Analyse von großen Datenmengen in einem solchen System dar. Sei es nun die reine Speicherung von Daten im verteilten Dateisystem Apache HDFS, der Zugriff auf strukturierte Daten per Apache Hive™ oder der Einsatz der NoSQL Datenbank HBase™, wir können Ihnen beim Aufbau einer Hadoop-basierten Lösung weiterhelfen. Zur Verarbeitung dieser Daten empfielt sich im Hadoop-Umfeld besonders der Einsatz von Apache Spark™, welches über seine parallele Architektur die in einem Hadoop-Cluster zur Verfügung stehenden Ressourcen optimal ausnutzt. Durch die Verwendung entsprechender Konnektoren ist eine Verarbeitung unterschiedlichster Datentypen und Datenquellen möglich. Auch bei der Verwendung (Architektur, Programmierung und Optimierung) von Apache Spark können wir auf unsere langjährigen Erfahrungen zurückgreifen. In weiteren Themen, wie der Installation und dem Betrieb einer Hadoop Plattform vermitteln wir Ihnen gerne unsere Erfahrungen und Empfehlungen. Was auch immer Ihre Pläne sind: Wir sind Ihre Ansprechpartner rund um das Thema Hadoop. Bitte nehmen Sie Kontakt mit uns auf, gerne diskutieren wir Ihre Ideen im Detail und unterstützen Sie bei deren Umsetzung!

Unsere Schwerpunkte

Wir beraten Sie gerne in allen Fragen rund um die Datenspeicherung und Analyse mit dem Apache­™ Hadoop® Framework. Entsprechend befinden sich unsere Stärken besonders in den bekanntesten Tools, die zur Erstellung solcher Softwarelösungen verwendet werden können.

Apache™ Hadoop®

Das Grundgerüst des Hadoop Frameworks bilden mehrere Services: Neben dem verteilten Datenspeicher HDFS™ (Hadoop Distributed File System) werden verfügbare Rechenkapazitäten eines solchen Clusters mithilfe des YARN (Yet Another Resource Negotiator) Ressourcenmanager für verteilte Berechnungen zur Verfügung gestellt. Gemeinsam mit dem parallelen Prozessierungsmechanismus MapReduce und den Clientschnittstellen, bilden diese Komponenten den Kern des Hadoop Frameworks.

Hortonworks Data Platform­™

Hortonworks bietet mit seiner Data Platform eine der bekanntesten Hadoop Distributionen an, die momentan im OpenSource Bereich zur Verfügung stehen. Die verschiedenen HDP Versionen bündeln jeweils ein Gesamtpaket unterschiedlichster Apache Hadoop Komponenten, die für eine Zusammenarbeit optimiert sind. So kann über die HDP Distribution ein Cluster zur Bewältigung unterschiedlichster Aufgaben aufgesetzt werden. Neben einem eigenverantwortlichen Betrieb der Plattform können auch Support Pakete optional hinzugebucht werden.

Apache Ambari

Apache Ambari ist ein Service, der speziell für die Installation, Konfiguration und Überwachung eines Hadoop Clusters entwickelt wurde. Die Installation eines Ambari-Servers bildet den Ausgangspunkt für das Aufsetzen eines Hadoop Clusters auf Basis der Hortonworks Data Platform. Über die Ambari-Agenten, die auf den einzelnen Knoten des Clusters installiert werden und mit dem Server in ständigem Kontakt stehen, können u.a. Konfigurationsänderungen auf alle notwendigen Maschinen übertragen und deren Zustand überwacht werden.

Apache Spark™

Apache Spark ist ein Framework zur verteilten Datenverarbeitung im Hadoop Cluster. Es können verschiedenste Datentypen gelesen, verarbeitet und geschrieben werden. Mithilfe unterschiedlichster Connectoren ist eine Anbindung an andere Systeme möglich, um auch von dort Daten für Analysen beizulesen bzw. Ergebnisse wegzuschreiben. Apache Spark verfolgt bei Berechnungen das Prinzip der Datenlokalität, sodass der Programmcode zu den einzelnen Knoten im Cluster gesendet wird (statt umgekehrt) und hierbei jeder Knoten möglichst nur seine lokalen Datenpartitionen verarbeitet. Dies minimiert den Datenaustausch im Netzwerk und erhöht die Performance.

Apache Hive™

Apache Hive bietet einen SQL-artigen Zugriff auf Ihre strukturierten Daten, welche wiederum verteilt im Cluster, z.B. im HDFS, gespeichert sind. Hive ermöglicht hier das parallele Abfragen und Verarbeiten von Daten. Über native Connectoren ist eine enge Zusammenarbeit mit Apache Spark™ möglich, sodass dieser Service seine Daten in Tabellenform lesen und schreiben kann.

Apache HBase™

Apache HBase ist eine NoSQL Datenbank im Hadoop Umfeld, die sich ebenfalls die Parallelität des Hadoop Clusters zu Nutze macht, um Daten schnell und ausfallsicher zu speichern bzw. für lesende Zugriffe zur Verfügung zu stellen. HBase ist als NoSQL Datenbank auch in der Lage, semi- bzw. unstrukturierte Daten zu speichern. Über zusätzliche Tools wie Apache Phoenix oder Apache Drill ist auch ein Arbeiten mit strukturierten Daten möglich.

Wer wir sind

Wir sind ein Gründerteam aus zwei ehemaligen Masterabsolventen, die sich durch das Studium und den darauf folgenden Berufstätigkeiten auf die Themen Datenverarbeitung mit Apache Hadoop und das Maschinelle Lernen spezialisiert haben. Mit diesen praktischen Erfahrungen, die wir im Laufe der letzten Jahre sammeln konnten, haben wir uns dazu entschieden, unser Wissen in Form von Dienstleistungen auf selbständiger Basis in neuen Projekten einzubringen. Durch unseren engen Kontakt zur Hochschule haben wir weitere Experten an der Hand, die sich in diesen Themen sehr gut auskennen, sowie eine ständige Austauschmöglichkeit gegeben, um über neueste Entwicklungen und Trends zu erfahren.

Daniel Müller, M.Sc.

Gründer & Geschäftsführer

Marvin Follmann, M.Sc.

Gründer

Felix Wagner, B.Sc.

Student & wissenschaftl. Mitarbeiter

Johannes Busam, M.Sc.

Masterand & Berater Datensicherheit

Das sagen unsere Kunden und Partner

Wir haben Daniel Müller über ein Forschungsprojekt kennengelernt, in dem es darum ging, das Apache Hadoop Framework auf die Einsetzbarkeit zur Speicherung und Analyse von Abverkaufsdaten zu untersuchen. Aus dem erfolgreichen Projekt entstand eine gute Zusammenarbeit mit der Seamless Analytics GmbH, die uns nun bei der Einrichtung und Umsetzung unserer Ideen im eigenen Hadoop-Cluster unterstützen.

Petra Schmidt-Hörndl

Abteilungsleiterin Business Intelligence EDEKA Südwest

In seiner Tätigkeit als akademischer Mitarbeiter an der Hochschule Offenburg, war Daniel Müller unter anderem für den Aufbau und die Betreuung unseres Hadoop-/Spark-Clusters zuständig. Aufgaben rund um die Einrichtung, Administration, Absicherung mit Kerberos wurden von ihm verantwortungsvoll und zuverlässig übernommen. Daniel verfügt über ein äußerst fundiertes und breites Wissen zu Hadoop und Spark, das er in Forschungsprojekten und der Betreuung von Abschlussarbeiten einbringen konnte.

Prof. Dr. Stephan Trahasch

Prodekan & Professor an der Fakultät E+I Hochschule Offenburg

Über ein zweijähriges Forschungsprojekt mit einem Industriepartner habe ich Daniel Müller kennengelernt. Es ging um die effiziente und performante Speicherung sowie Analyse von Abverkaufsdaten mithilfe des Apache Hadoop Frameworks. Durch Daniels Ideen und sein großes Prozess- und Systemwissen wurde das Projekt zur vollen Zufriedenheit aller Beteiligter abgeschlossen. Besonders hervorzuheben sind seine Fähigkeiten, sich in eine ihm bis dahin fremde Branche schnell einzuarbeiten, als auch Fragestellungen auf den Punkt zu bringen, um optimale Lösungen zu finden.

Prof. Dr. Jan Münchenberg

Wissenschaftl. Leiter Campus IT & Professor Hochschule Offenburg

Seamless Analytics hat uns mit Ihren exzellenten Technologie-Kenntnissen bei der Auswahl und Implementierung von Hadoop wesentlich unterstützt.

Stefan Rössel

Leiter IT TDK-Micronas

Kontaktformular

Interessieren Sie sich für unsere Dienstleistungen und wollen mehr darüber erfahren? Sie überlegen sich, selbst ein Hadoop Cluster anzuschaffen bzw. brauchen Unterstützung bei der Einrichtung und dem Betrieb der Plattform? Oder haben Sie sonstige Fragen und Anregungen? Lassen Sie es uns wissen und kontaktieren Sie uns per Telefon, Mail oder folgendes Kontaktformular. Wir freuen uns auf Ihre Nachricht!