2 Data Science - Scientist/Analyst in Winterthur
Data Analyst (m/w/d)
Rolle
In dieser Rolle programmierst du anspruchsvolle Datenanalysen für Investment-Controlling-Reports und entwickelst interaktive Grafiken sowie Dashboards für eine webbasierte Kundenplattform. Du verantwortest die Aufbereitung, Modellierung und Auswertung von Daten auf Basis moderner Technologien wie Power BI, MS Fabric, R und SQL. Zudem gestaltest du robuste ETL-Pipelines und setzt Daten-Orchestrierungs-Tools wie Apache Airflow oder Prefect ein, um stabile und effiziente Datenprozesse sicherzustellen. Mit deiner Erfahrung in Scripting-Sprachen wie Python und der Arbeit mit REST APIs baust du skalierbare Lösungen, die komplexe Finanz- und Investmentdaten nutzbar machen. Durch deine analytische Denkweise und dein vertieftes Verständnis von Datenmodellen trägst du entscheidend dazu bei, datengetriebene Entscheidungen auf einem professionellen Niveau zu ermöglichen.
Verantwortung
Du programmierst Datenanalysen für Investment-Controlling-Reports der Kunden
Du entwickelst interaktive Grafiken und Dashboards für die webbasierte Plattform
Du konzipierst und betreibst stabile ETL-Pipelines für die Datenverarbeitung
Du arbeitest mit Daten-Orchestrierungs-Tools wie Apache Airflow oder Prefect
Qualifikationen
Du hast ein abgeschlossenes Studium in Data Analytics (z. B. Data Science, Mathematik, Statistik oder Informatik)
Du hast Erfahrung mit Datenvisualisierung wie Power BI oder MS Fabric
Du arbeitest mit analytischen Sprachen wie R sowie SQL für Datenabfragen
Du kennst Scripting mit Python und die Nutzung von REST APIs
Du hast Grundkenntnisse in Datenmodellierung (z. B. Star Schema, Slowly Changing Dimensions)
Sehr gute Deutschkenntnisse in Wort und Schrift
Benefits
Daten- und BI-Ingenieur SQL-Plattform (m/w/d)
Rolle
In dieser Rolle baust und betreibst du die Datenbasis für Reporting, Analyse, Planung und Ausführung auf einer modernen SQL- und Microsoft-Fabric-Plattform. Du setzt fachliche Anforderungen in robuste Datenpipelines, Datenmodelle und Datenprodukte um und stellst dabei Qualität, Performance und Wartbarkeit sicher. Du implementierst und optimierst End-to-End-Datenstrecken von der Ingestion über Transformation und Automatisierung bis zur Bereitstellung für BI- und CPM-Lösungen. Du modellierst Daten für Reporting und Planung, entwickelst SQL- und Python-basierte Logiken weiter und stellst durch Monitoring, Tests und strukturierte Fehleranalyse eine hohe Datenqualität sicher. Zudem arbeitest du eng mit Fach- und Beratungsteams zusammen, prüfst technische Machbarkeit, schätzt Aufwände realistisch ein und treibst Standards, Best Practices sowie wiederverwendbare Bausteine für eine leistungsfähige Daten- und BI-Plattform voran.
Verantwortung
- Du implementierst und betreibst End-to-End-Datenstrecken auf Basis von Microsoft Fabric und MS SQL-Server von der Ingestion bis zur Bereitstellung für BI und CPM
- In dieser Rolle entwickelst und pflegst du Pipelines und Notebooks und automatisierst Transformations- und Validierungsprozesse
- Du modellierst Daten für Reporting und Planung und sorgst für konsistente Kennzahlen- und Berechtigungsgrundlagen
- Als Daten- und BI-Ingenieur SQL-Plattform setzt du SQL-basierte Logiken effizient um und entwickelst Python-Komponenten für Transformationen, Tests und Datenqualitätschecks
- Du stellst Datenqualität, Vollständigkeit und Integrität sicher, inklusive Monitoring der Ladestrecken und strukturierter Fehleranalyse
- In dieser Rolle arbeitest du eng mit Consultants zusammen, klärst technische Machbarkeit, schätzt Aufwände ein und setzt Lösungen termingerecht und standardkonform um
Qualifikationen
- Abgeschlossenes Studium (Bachelor oder Master) in Informatik, Wirtschaftsinformatik, Data Science oder eine gleichwertige Ausbildung
- 3–5 Jahre praktische Berufserfahrung als Data Engineer, BI Engineer, Analytics Engineer oder in einer ähnlichen Datenrolle
- Fundierte Praxis mit Microsoft Fabric (z.B. Lakehouse, Data Factory/Pipelines, Warehouses, Notebooks, Semantic Models) und/oder Microsoft SQL-Server
- Sehr sichere Anwendung von SQL (inkl. Datenmodellierung, Performance-Tuning, komplexe Abfragen) sowie Python im Datenkontext (Transformation, Automatisierung, Tests)
- Erfahrung in der Datenmodellierung für BI, idealerweise mit Star-Schema bzw. Data Vault und Semantikschichten; Kenntnisse in Power BI sind ein Plus
- Ausgeprägte, strukturierte und qualitätsbewusste Arbeitsweise mit Ownership für stabile Lösungen sowie sehr gute Deutsch- und Englischkenntnisse
Benefits