DeepSeek-Coder-V2 es un modelo de lenguaje de código abierto basado en Mixture-of-Experts (MoE) que alcanza rendimientos comparables a los de GPT4-Turbo en tareas específicas de código. DeepSeek-Coder-V2 se ha preentrenado adicionalmente a partir del modelo base DeepSeek-Coder-V2-Base con 6 trillones de tokens provenientes de un corpus de alta calidad y múltiples fuentes.