DON’T JUST WORK. WORK WITH US. Arbeite dort, wo du mitgestalten und etwas bewegen kannst.
- Wir – das sind Saskia, Laura, Stefan, Kathi und Olga – sind mehr als nur Kolleg:innen: Wir sind ein eingeschworenes Team, das viel Wert auf ein freundschaftliches, offenes Miteinander legt.
- Gemeinsame Teammeetings, Kaffeepausen, Mittagessen in unserer großartigen Kantine oder auch mal ein Feierabendbier gehören für uns genauso dazu wie sportliche Aktivitäten oder spontane Ausflüge an den See – inklusive unserer legendären Abende auf der Marc O’Polo Almhütte.
- Unsere Münchner Kolleg:innen bilden eine Zug-Fahrgemeinschaft ins Headquarter nach Stephanskirchen – Pendeln geht bei uns mit Teamgefühl.
- Wir arbeiten Hand in Hand mit vielen verschiedenen Fachabteilungen zusammen – das macht unsere Arbeit abwechslungsreich, dynamisch und nie langweilig.
- Bei uns wird gelacht, sich gegenseitig geholfen und Wissen geteilt – sowohl im Daily Business als auch bei gemeinsamen Besuchen von Fachkonferenzen oder Tech-Events.
- Flexible Arbeitszeiten und Homeoffice-Möglichkeiten sind für uns selbstverständlich – Hauptsache, du bleibst im Flow.
- Wir lieben moderne Tools, experimentieren gerne mit neuen Features und sind offen für frische Impulse – auch von dir!
- Wir geben dir nicht nur Verantwortung – sondern auch Vertrauen. Bei uns gestaltest du aktiv mit.
- Und klar: Auch bei Sommerfest, Weihnachtsfeier oder Teamevents sind wir immer mit voller Begeisterung dabei – denn gemeinsam ist’s einfach schöner.
Du möchtest KI nicht nur entwickeln, sondern auch produktionsreif machen?
Du weißt, dass ein gutes Modell nur dann einen echten Mehrwert liefert, wenn es stabil läuft, sauber integriert ist und zuverlässig skaliert? Dann bist du bei Marc O’Polo genau richtig. In unserem Data & Tech Department suchen wir einen AI/ML Engineer (m/w/d), der unsere Machine Learning und Generative AI Use Cases technisch realisiert – mit Fokus auf Robustheit, Performance und Skalierbarkeit.
- Du entwickelst, betreibst und überwachst skalierbare ML- und LLM-Pipelines (z. B. für Forecasting, Replenishment oder Textanalyse).
- Du optimierst den Einsatz großer Datenmengen und stellst Effizienz, Skalierbarkeit und Robustheit der produktiven Systeme sicher.
- Deployment, Versionierung, Logging, Monitoring und Performance-Tuning gehören zu deinem Tagesgeschäft - Du bringst ML-Modelle in Produktion.
- Du arbeitest mit Embedding-Datenbanken und Retrieval-Augmented Generation (RAG) und integrierst LLMs in unsere Systeme – etwa für GPT-basierte Assistenten oder semantische Suchfunktionen.
- Die Betreuung und Weiterentwicklung unsere interne ChatGPT-Infrastruktur (RAG-Architektur, Embedding Search, API-Kommunikation) liegt in deinen Händen.
- Du unterstützt unsere Data Scientists bei der Operationalisierung prädiktiver Modelle und sorgst für reibungslose Inferenzprozesse.
- Du arbeitest eng mit Data Engineers, Data Scientists, GenAI-Expert:innen, Software Developern und Fachbereichen zusammen, um leistungsfähige, wartbare und sichere AI-Operations zu gewährleisten.
- Du hast ein Studium in Informatik, Data Engineering, Data Science oder einem vergleichbaren Bereich abgeschlossen.
- Du bringst mind. 3 Jahre Berufserfahrung im Machine Learning Engineering oder in AI-Infrastrukturen (in der Entwicklung und Operationalisierung) mit.
- Nachweisliche Erfahrungen im Deployment von ML/LLM-Modellen in produktiven Umgebungen ergänzen dein Profil perfekt.
- Python: Du hast 3+ Jahre Erfahrung mit Pandas, NumPy, Scikit-learn, FastAPI, ggf. PyTorch/TensorFlo.
- Deployment-Expertise: Du bringst praktische Erfahrungen mit mindestens einem ML Ops Stack (z. B. MLflow, DVC, SageMaker oder Vertex AI) mit.
- Containerisierung & Automatisierung: Der sicherer Umgang mit Docker, CI/CD (GitLab/GitHub Actions), Workflow-Engines wie Airflow oder Prefect gehört zu deinen Fähigkeiten.
- LLM-Stack: Die Anwendung von OpenAI APIs, LangChain, sowie der Aufbau von Embedding-Suchsystemen mit Pinecone, Weaviate o. ä. fällt dir leicht.
- Monitoring & Logging: Implementierung von Model Monitoring, Logging-Strategien und Alerting (z. B. mit Grafana, Prometheus, ELK Stack) ergänzen dein Profil perfekt.
- Datentechnologien: Du beherrschst den Umgang mit relationalen & NoSQL-Datenbanken (SQL, MongoDB, ggf. BigQuery).
- Du hast Erfahrung mit Cloud-Diensten (Azure, AWS, GCP).
- Dich zeichnen eine strukturierte Denkweise und Hands-on-Mentalität aus. Dabei bringst du Begeisterung für saubere Codequalität und stabile Systeme mit.
- Du hast einen ausgeprägten Anspruch an Performance, Skalierbarkeit und Testbarkeit sowie die Fähigkeit, technische Komplexität verständlich darzustellen.
- Teamplayer-Mentalität zeichnet dich aus – Du hast Freude an interdisziplinärer Zusammenarbeit.
- Du beherrschst Deutsch und Englisch sehr gut in Wort und Schrift.
Bereit, AI & ML bei Marc O’Polo technisch auf das nächste Level zu heben? Dann freuen wir uns auf deine Bewerbung! Zeig uns, was du kannst – z.B. durch ein GitHub-Profil, Projektbeispiele oder deine Lieblings-Deployment-Story.