Goldright Master Data Management ist ein Produkt der NETCONOMY GmbH und bei uns hast du die Chance, die Zukunft eines dynamischen, schnell wachsenden Technologieunternehmens entscheidend mitzugestalten und dabei mit deinen Aufgaben und deiner Verantwortung zu wachsen.
Wir sind ein starkes Team, das Eigenständigkeit und schnelle Entscheidungsfindung in flachen Hierarchien verkörpert.
Nutze dein Verkaufstalent, um die Expansion unserer innovativen IT-Lösungen auf dem europäischen Markt voranzutreiben.
Bei Goldright baust du strategische Partnerschaften mit Entscheidungsträgern auf, führst komplexe Verhandlungen und lieferst maßgeschneiderte Lösungen, die unsere B2B-Kunden wirklich überzeugen.
Dein Aufgabenbereich beinhaltet:
Key Responsibilities Are: Designing, developing, and maintaining robust data pipelines using Databricks, Spark, and Python. Building efficient and scalable ETL processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes... -
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen... -
Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
flache Hierarchien Homeoffice
Key Responsibilities Are: Designing, developing, and maintaining robust data pipelines using Databricks, Spark, and Python. Building efficient and scalable ETL processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes... -