Rejoignez l'équipe

Construisez l'avenir de l'IA avec des experts passionnés. Nous recherchons des talents exceptionnels pour façonner la prochaine génération d'infrastructures intelligentes.

Ingénieur IA Full Stack — Deep Learning / LLM / Infra distribuée

📍 Full Remote💼 CDI ou Freelance long terme🎯 Senior / Expert
💰 80 000 € – 130 000 € selon profil + equity
Publié le 13 octobre 2025

🧠 À propos

Chez Dreem Studio, nous concevons des infrastructures d'intelligence artificielle propriétaires pour les entreprises les plus ambitieuses.

Notre mission : accélérer l'intégration de l'IA au cœur des opérations — du prototype expérimental jusqu'à l'orchestration de modèles propriétaires, en passant par la R&D sur les agents autonomes et les architectures LLM hybrides.

Nous cherchons aujourd'hui un Ingénieur IA Full Stack capable de concevoir, entraîner et déployer des systèmes d'intelligence artificielle à grande échelle, aussi bien du côté modélisation (ML/LLM) que de la stack produit et infra.

Tu évolueras dans une équipe réduite, au contact direct des fondateurs, sur des projets mêlant apprentissage profond, serveurs de modèles, pipelines RAG, orchestration d'agents et intégrations temps réel.

🎯 Missions principales

🔹 1. R&D & Modélisation

  • Concevoir et entraîner des modèles de Machine Learning / Deep Learning / LLM, selon les besoins : fine-tuning, distillation, LoRA, quantization, embeddings, etc.
  • Expérimenter des architectures hybrides (transformers, mixture of experts, multimodalité).
  • Développer et benchmarker des pipelines RAG (vector DB, retrieval, reranking, context injection).
  • Mettre en place des métriques de performance (latence, perplexité, F1, BLEU, recall, hallucinations…).
  • Participer à la veille scientifique (arXiv, OpenAI Research, Anthropic, Mistral, DeepMind…).

🔹 2. Développement produit & backend IA

  • Concevoir des APIs scalables autour des modèles (FastAPI, gRPC, WebSocket streaming).
  • Déployer les modèles sur des serveurs GPU / clusters (NVIDIA, Lambda, RunPod, HuggingFace Inference, AWS, GCP, Vercel Edge).
  • Implémenter les pipelines de data processing et d'entraînement (datasets, cleaning, augmentation, sharding).
  • Gérer les déploiements continus (CI/CD, Docker, Kubernetes, Terraform).

🔹 3. Full stack & intégration

  • Développer les interfaces internes et clients (Next.js / React + Tailwind / TypeScript).
  • Créer les dashboards de suivi IA (fine-tuning monitor, feedback loop, user metrics).
  • Intégrer la stack IA avec les outils métiers (Notion, Slack, HubSpot, Supabase, etc.).
  • Automatiser les interactions entre front / backend / modèles via des API orchestrées.

🧩 Stack technique idéale

🔸 Langages & frameworks

  • Python (PyTorch, TensorFlow, FastAPI, LangChain, LlamaIndex)
  • JavaScript / TypeScript (Next.js, React, Node.js)
  • C++ / Rust (bonus pour l'optimisation bas niveau)

🔸 Infrastructure

  • Cloud : AWS, GCP, Lambda Labs, Vercel, Cloudflare
  • Bases : Supabase / Postgres, Pinecone / Qdrant / Weaviate
  • CI/CD : Docker, Kubernetes, GitHub Actions, Terraform
  • Monitoring : Prometheus, Grafana, OpenTelemetry

🔸 Machine Learning

  • PyTorch Lightning / Hugging Face Transformers
  • Fine-tuning (LoRA, QLoRA, adapters, PEFT)
  • Vector search / RAG / embeddings (OpenAI, Mistral, Cohere)
  • Prompt engineering avancé + pipelines multi-LLM
  • Quantization (bitsandbytes, GGUF, vLLM, TensorRT)

🧬 Profil recherché

Bac +5 / PhD ou équivalent autodidacte avec track record solide.

Minimum 4 ans d'expérience en Machine Learning, NLP ou Deep Learning.

Solide expérience en infrastructure cloud / déploiement de modèles IA.

Capacité à gérer un cycle complet : data → modèle → API → front.

Curiosité scientifique, rigueur de production, esprit maker.

Bonus : contributions open-source, Kaggle, publications, side-projects IA.

⚡ Ce qu'on offre

Environnement technique de haut niveau, inspiré des meilleures pratiques OpenAI / Anthropic.

Projets de R&D appliquée : agents autonomes, architectures RAG-LLM, IA décisionnelle.

Liberté d'expérimenter, d'itérer et de proposer des idées.

Remote first, horaires flexibles, stack moderne.

Accès GPU, budget de veille et de formation IA.

Rémunération très compétitive + parts dans la structure.

🚨 Process de recrutement

Call de 30 min – Fit culturel et tech.

Test technique / mini projet ML – reproduction ou optimisation d'un modèle.

Entretien final – discussion produit / vision / deep dive R&D.

📩 Pour postuler

Envoie-nous :

• ton GitHub / HuggingFace profile / portfolio,

• un résumé de ton projet IA le plus ambitieux,

• et ton CV (PDF ou lien).