Entwicklung
KetteQ Standort Karriere
Fernbedienung

Senior Datenwissenschaftler

Über den Job

ketteQ ist eine Plattform zur Planung und Automatisierung der Lieferkette, die als Software-as-a-Service-Lösung angeboten wird. Da wir weiter wachsen und uns weiterentwickeln, suchen wir einen sehr gut organisierten und detailorientierten Senior Data Scientist, der unser Team verstärkt und eine entscheidende Rolle bei der Entwicklung der klassenbesten Plattform für die Planung und Automatisierung von Lieferketten spielt. Diese Stelle ist mit einem sehr attraktiven Vergütungspaket und Vorteilen bei der Arbeit von zu Hause aus verbunden. Sie werden mit großen globalen Marken und einem sehr erfahrenen Team zusammenarbeiten können. Wenn Sie energiegeladen, motiviert und initiativ sind, dann könnte dies eine fantastische Gelegenheit für Sie sein. Die Bewerber müssen die folgenden Qualifikationen erfüllen:

Aufgaben und Zuständigkeiten

  • Gemeinsames Vorantreiben der Roadmap für Advanced Data Science Solutions; praxisorientiert und mit gutem Beispiel vorangehend mit Proof of Concepts, Referenzimplementierungen
  • Leitung von Design- und Entwicklungskomponenten des fortgeschrittenen Datenanalyse-Lösungsökosystems von ketteQ zur Lösung komplexer Geschäftsprobleme
  • Entwicklung skalierbarer fortgeschrittener Datenanalyseanwendungen
  • Strategische Ausrichtung auf die neuesten und modernsten Methoden der Datenwissenschaft und KI/ML sowie deren Anwendungen in der Lieferkettenbranche
  • Empfehlung von Prozessen, Diensten, Software und anderen Tools zur Unterstützung von Geschäftszielen in Bezug auf Data Science/AI/ML sowie relevante Infrastrukturtechnologien

Anforderungen

  • BS/MS/PhD in Wirtschaftsanalytik, Datenwissenschaft, Mathematik/Statistik oder einem verwandten Fachgebiet; Bildungshintergrund in den Bereichen Wirtschaftsingenieurwesen, Versorgungskette und Operations Research ist bei entsprechender Erfahrung ebenfalls von Vorteil
  • Mindestens 7 Jahre Erfahrung in der Anwendung fortgeschrittener Datenwissenschaften, KI/ML-Techniken auf reale Probleme, Lieferketten oder verwandte Anwendungen sind von Vorteil.
  • Fähigkeit, die Bedürfnisse des Unternehmens und der Lieferkette zu verstehen und diese zu nutzen, um effektiv Produktlösungen zu entwickeln, die den Geschäftswert steigern
  • Ausgeprägte mathematische Fähigkeiten (z. B. Statistik, Algebra)
  • Kenntnisse fortgeschrittener statistischer Techniken und Konzepte (Regression, Eigenschaften von Verteilungen, statistische Tests und deren korrekte Anwendung usw.) sowie Erfahrung mit Anwendungen.
  • Kenntnis einer Vielzahl von Techniken des maschinellen Lernens (Clustering, Entscheidungsbaumlernen, künstliche neuronale Netze usw.) und ihrer Vor- und Nachteile in der Praxis.
  • Mindestens 2 Jahre Erfahrung in der Arbeit mit Algorithmen zur Zeitreihenprognose. Abgeschlossene Projekte zur Zeitreihenprognose, die über statistische Algorithmen wie ARIMA hinausgehen
  • Eingehende Kenntnisse klassischer statistischer Prognosealgorithmen wie ARIMA, ETS usw. sowie neuerer Algorithmen wie Prophet.
  • Nachgewiesene Erfahrung im Umgang mit Zeitreihenprognosen unter Verwendung von Standardregressionsalgorithmen wie Linearer Regression, Gradient Boosted Decision Trees, Random Forest, etc.
  • Ausgeprägte konzeptionelle Kenntnisse von KI/ML-Techniken und die Bereitschaft, neue Ansätze und Methoden zu erlernen und zu übernehmen.
  • Gute praktische Kenntnisse mit Sequenzmodellen im Deep Learning, wie LSTMs, Transformers usw., insbesondere im Zusammenhang mit Zeitreihenprognosen.
  • Kenntnisse des Lebenszyklus der Softwareentwicklung, einschließlich der Erfassung von Produktanforderungen, der Überprüfung von Funktionsspezifikationen, der Entwicklung von Lösungen, der Erstellung von Testplänen, der Durchführung von Tests, der Schulung von Benutzern und der Bereitstellung
  • Fachkundige Fähigkeit, robusten Code in Python zu schreiben. Vertrautheit mit Scala, Java oder C++ ist ein Vorteil. Kenntnisse in R sind von großem Vorteil
  • Beherrschung von mindestens einem ML-Framework wie TensorFlow, Keras, PyTorch usw.
  • Praktische Erfahrung mit relationalen Datenbanken (z. B. PostgreSQL, MySQL), BI-/Datenanalyse-Tools
  • Erfahrung mit verteilten Daten/Computing-Tools: Map/Reduce, Hadoop, Hive, Spark, usw.
  • Erfahrung mit herkömmlichen Freigabe- und Bereitstellungsabläufen und -richtlinien sowie mit der Arbeit in GitHub/Bitbucket
  • Erfahrung in der Arbeit in Linux-Umgebungen mit Containerisierungstechnologien (Docker, Kubernetes, AWS Fargate, Argo) und wichtigen Cloud-Diensten (AWS, GCP, Azure)
  • Fähigkeit, komplexe Situationen mit wenig oder ohne Anleitung zu bewältigen
  • Untersuchung von Daten und klare Vermittlung von Erkenntnissen sowohl an ein nichttechnisches als auch an ein technisches Publikum
  • Erfahrungen in den Bereichen Einzelhandel, CPG, E-Commerce oder Lieferkette sind von Vorteil.