Data Cloud Engineer (m/w/d)
Rolle
In dieser Rolle gestaltest du eine moderne Cloud-Datenplattform, indem du skalierbare Datenpipelines und -architekturen konzipierst, implementierst und kontinuierlich optimierst. Du verantwortest den zuverlässigen Datenfluss von der Anbindung unterschiedlichster Quellsysteme über ETL/ELT-Prozesse bis hin zur Bereitstellung in Data Lakes und Data Warehouses. Dabei nutzt du gängige Cloud-Services und Technologien wie SQL, Python und moderne Frameworks, um grosse Datenmengen performant, sicher und qualitativ hochwertig aufzubereiten. Zudem arbeitest du eng mit Data Scientists, Analyst:innen und anderen Stakeholdern zusammen, übersetzt fachliche Anforderungen in technische Lösungen und trägst zur Weiterentwicklung der gesamten Datenlandschaft bei.
Verantwortung
- In dieser Rolle gestaltest du die Datenarchitektur und Datenplattform in der Cloud auf Basis moderner GCP‑Services wie BigQuery, Cloud Storage, Dataflow und verwandter Technologien.
- Du entwickelst, automatisierst und überwachst skalierbare Datenpipelines sowie ETL/ELT‑Prozesse, um qualitativ hochwertige Daten für Analyse, Reporting und Machine Learning bereitzustellen.
- Als Fachkraft Datenarchitektur in Cloud verantwortest du den Aufbau und die Weiterentwicklung von Data-Lake- und Warehouse-Strukturen inklusive Governance, Sicherheit und effizienten Zugriffsmodellen.
- Du arbeitest eng mit Data Scientists, Data Analysts und weiteren Stakeholdern zusammen, übersetzt fachliche Anforderungen in robuste technische Lösungen und förderst eine datengetriebene Entscheidungsfindung.
- In dieser Rolle nutzt du deine Erfahrung mit CI/CD, Infrastructure as Code und Automatisierung, um eine zuverlässige, skalierbare und kosteneffiziente Cloud-Dateninfrastruktur sicherzustellen.
- Du analysierst bestehende Datenlandschaften, identifizierst Optimierungspotenziale und treibst durch innovative Cloud-Architekturen die Weiterentwicklung der unternehmensweiten Datenstrategie voran.
Qualifikationen
- Du hast ein abgeschlossenes Studium in Informatik, Data Engineering, Data Science oder einem vergleichbaren technischen Bereich
- Du verfügst über mehrjährige Berufserfahrung im Data Engineering, davon mindestens zwei Jahre mit Fokus auf GCP Lösungen
- Du kennst dich umfassend mit GCP Data Services wie BigQuery, Cloud Storage, Dataflow, Cloud Composer und Cloud Data Fusion aus
- Du programmierst routiniert in Python und SQL und setzt Big-Data-Technologien wie Apache Airflow und Apache Spark für die Datenverarbeitung ein
- Du bringst Erfahrung im Aufbau von CI/CD Pipelines und Infrastructure as Code mit, idealerweise mit Tools wie Terraform oder OpenTofu
- Du kommunizierst mündlich und schriftlich fliessend in Deutsch und Englisch und arbeitest gerne analytisch, lösungsorientiert und im Team
Benefits