Big Data Engineer - Hadoop (m/w/d)

 StepStone ·  06.06.2019 ·  Frankfurt am Main ·  Commerzbank AG


Die Commerzbank ist mit rund 50.000 Mitarbeitern eine führende, international agierende Geschäftsbank mit Standorten in knapp 50 Ländern. Mit den beiden Geschäftsbereichen Privat- und Unternehmerkunden sowie Firmenkunden bietet sie ein umfassendes Portfolio an Finanzdienstleistungen an. Im Rahmen einer erstklassigen Mannschaft bieten wir ein vielfältiges, inspirierendes Arbeitsumfeld und hervorragende Entwicklungschancen. Work Life Balance genießt bei uns einen hohen Stellenwert. Und natürlich wissen wir, dass zu einem guten Job auch eine attraktive Bezahlung gehört.
Wir arbeiten in einer Clusterstruktur, in der die Projektteams selbstorganisiert und flexibel ihre Aufgaben bearbeiten. Dabei übernimmt jedes Projektteam die Produktverantwortung von Anfang bis Ende, von der Softwareentwicklung bis zum Betrieb. Die Teams nutzen für ihre Organisation agile Arbeitsmethoden, um den Kunden die Produkte schneller und effizienter liefern zu können.

Entwicklung, Implementierung und Wartung des Compliance Data Lake auf der Hadoop-Big Data-Plattform der Commerzbank

Eigenverantwortliche Mitarbeit in den interdisziplinären, agilen Teams und selbstständige Entwicklung auf Basis spezifischer Datenanalysen und fachlichen Mappings

Paketerstellung für das Software Deployment (CI/CD) und den Test sowie deren Integration in das Compliance spezifische Framework der Big Data Hadoop-Plattform

Unterstützung im Test, bei der Fehlerbereinigung und der Qualitätssicherung sowie im 3rd Level Support im Rahmen der produktiven Wartung

Unterstützung der Weiterentwicklung und Optimierung von Prozessen rund um das Software Life Cycle Management der Big Data Compliance-Lösung

Du bist aktives Mitglied in der agilen „Campus 2.0“-Community der Bank

Du arbeitest im Team eng mit dem Product Owner, den fachlichen Spezialisten, den Business Analysten und Architekten zusammen. Durch ständigen Austausch mit verbundenen Prozessen und Systemen sorgst Du für eine integrierte, übergreifende Sicht



Abgeschlossenes technisches oder naturwissenschaftliches Studium oder vergleichbare Qualifikation

Umfangreiche Berufserfahrung in der Konzeption und Entwicklung von ETL Lösungen und in den Themen Data Storage, Data Processing und Data Access im Umfeld von Big Data-Lösungen auf Basis von Hadoop Distributionen (beispielsweise Cloudera oder Hortonworks) unter BigSQL und HIVE

Umfangreiche Kenntnisse in der Java Entwicklung im SPARK Framework, sicherer Umgang mit den Programmiersprachen Java, SQL und Python inklusive guter Datenbankanalyse Kenntnisse

Erfahrung und Expertise in Data Warehouse Projekten, Kenntnisse in der Automatisierung von technischen Prozesssteuerungen/Job Scheduling mit Automic Software (ehemals UC4)

Ausgeprägtes analytisches, strukturiertes, selbständiges und lösungsorientiertes Denken und Handeln unter Berücksichtigung von IT-Sicherheit und QS Aspekten

Grundlegendes bankfachliches Wissen in den Themenfeldern Geldwäsche Prävention, Customer Scoring, Überwachung von Sanktionsvorschriften, Handelsabwicklung, des Handels, des Zahlungsverkehr oder Trade Finance wünschenswert

Ausgeprägte kommunikative Fähigkeiten, hohe Teamfähigkeit und Kundenorientierung, „agile mindset“ und Bereitschaft zur Übernahme von Verantwortung in einem dynamischen Umfeld

Mut und eigene Motivation über den direkten Verantwortungsbereich hinaus zu denken und zu handeln

Verhandlungssicheres Deutsch und Englisch in Wort und Schrift



Betriebliche Altersvorsorge

Vermögenswirksame Leistungen

Mitarbeiterkonditionen

Flexibel arbeiten

Gesundheits- und Fitnessangebote

Personalentwicklung

International arbeiten




ework.de — ein Projekt von DIPLANET Digital Solutions Impressum