In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team herangewachsen, welches an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Arbeitskultur.
In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.
Als Data Engineer mit einem Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für unsere Kunden.
In diesem Job wirst du Teil unseres wachsenden Data & AI Teams und arbeitest hands-on mit der Databricks Plattform um unseren Kunden dabei zu helfen komplexe Herausforderungen rund um das Thema Daten zu lösen.
Dein Aufgabenbereich beinhaltet:
Key Responsibilities Are: Designing, developing, and maintaining robust data pipelines using Databricks, Spark, and Python. Building efficient and scalable ETL processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes... -
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen... -
flache Hierarchien Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
flache Hierarchien Homeoffice
Key Responsibilities Are: Designing, developing, and maintaining robust data pipelines using Databricks, Spark, and Python. Building efficient and scalable ETL processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes... -