DeepSeek-Coder-V2

Feb 15, 2025

DeepSeek-Coder-V2-model

Invoering

We introduceren DeepSeek-Coder-V2 , een open-source Mixture-of-Experts (MoE) codetaalmodel dat prestaties levert die vergelijkbaar zijn met GPT-4 Turbo in codespecifieke taken. DeepSeek-Coder-V2 is gebouwd op een tussenliggend controlepunt van DeepSeek-V2, met nog eens 6 biljoen tokens die worden gebruikt voor voortdurende pre-training. Deze extra training verbetert de coderings- en wiskundige redeneervaardigheden aanzienlijk , terwijl de sterke prestaties in algemene taaltaken behouden blijven.

Vergeleken met DeepSeek-Coder-33B toont DeepSeek-Coder-V2 significante verbeteringen op meerdere gebieden, waaronder codegerelateerde taken, redeneren en algemene mogelijkheden. Het breidt ook de ondersteuning van programmeertalen uit van 86 naar 338 talen en vergroot de contextlengte van 16K naar 128K , waardoor het veel grotere invoer en complexere projecten aankan.

Introduction-DeepSeek-Coder-V2

In standaard benchmarkevaluaties presteert DeepSeek-Coder-V2 beter dan verschillende closed-sourcemodellen, waaronder GPT-4 Turbo, Claude 3 Opus en Gemini 1.5 Pro, met name in benchmarks voor coderen en wiskunde. Hierdoor is het de beste keuze voor geavanceerde ontwikkel- en computertaken.

Model-downloads

We brengen DeepSeek-Coder-V2 uit in 16B en 236B parameterconfiguraties , gebouwd op het DeepSeek-MoE-framework. Ondanks hun grote schaal activeren deze modellen respectievelijk slechts 2,4B en 21B parameters tijdens inferentie, wat zorgt voor een hoge efficiëntie zonder dat dit ten koste gaat van de prestaties. Zowel basis- als instruct-tuned versies zijn beschikbaar voor het publiek, wat flexibele opties biedt voor een breed scala aan coderings- en redeneertaken.

Model #Totale Parameters #Geactiveerde Parameters Contextlengte Download
DeepSeek-Coder-V2-Lite-Base 16B 2.4B 128k 🤗 HuggingFace
DeepSeek-Coder-V2-Lite-Instruct 16B 2.4B 128k 🤗 HuggingFace
DeepSeek-Coder-V2-Base 236B 21B 128k 🤗 HuggingFace
DeepSeek-Coder-V2-Instruct 236B 21B 128k 🤗 HuggingFace

Evaluatieresultaten

Codegeneratie

#TP #AP MenselijkeEval MBPP+ LiveCodeBench VSCO
Gesloten-bronmodellen
Gemini-1.5-Pro 83.5 74.6 34.1 4.9
Claude-3-Opus 84.2 72.0 34.6 7.8
GPT-4-Turbo-1106 87.8 69.3 37.1 11.1
GPT-4-Turbo-0409 88.2 72.2 45.7 12.3
GPT-4o-0513 91.0 73.5 43.4 18.8
Open-sourcemodellen
CodeStral 22B 22B 78.1 68.2 31.0 4.6
DeepSeek-Coder-Instrueren 33B 33B 79.3 70.1 22.5 4.2
Llama3-Instrueren 70B 70B 81.1 68.8 28.7 3.3
DeepSeek-Coder-V2-Lite-Instruct 16B 2.4B 81.1 68.8 24.3 6.5
DeepSeek-Coder-V2-Instrueren 236B 21B 90.2 76.2 43.4 12.1

Code-aanvulling

Model #TP #AP RepoBench (Python) RepoBench (Java) MenselijkeEval FIM
CodeStral 22B 22B 46.1 45.7 83.0
DeepSeek-Coder-Base 7B 7B 36.2 43.3 86.1
DeepSeek-Coder-Base 33B 33B 39.1 44.8 86.4
DeepSeek-Coder-V2-Lite-Base 16B 2.4B 38.9 43.3 86.4

Code repareren

#TP #AP Defects4J SWE-Bench Aider
Gesloten-bronmodellen
Gemini-1.5-Pro 18.6 19.3 57.1
Claude-3-Opus 25.5 11.7 68.4
GPT-4-Turbo-1106 22.8 22.7 65.4
GPT-4-Turbo-0409 24.3 18.3 63.9
GPT-4o-0513 26.1 26.7 72.9
Open-sourcemodellen
CodeStral 22B 22B 17.8 2.7 51.1
DeepSeek-Coder-Instruct 33B 33B 11.3 0.0 54.5
Llama3-Instruct 70B 70B 16.2 49.2
DeepSeek-Coder-V2-Lite-Instruct 16B 2.4B 9.2 0.0 44.4
DeepSeek-Coder-V2-Instruct 236B 21B 21.0 12.7 73.7

Wiskundig redeneren

#TP #AP GSM8K MATH AIME 2024 Math Odyssey
Gesloten-bronmodellen
Gemini-1.5-Pro 90.8 67.7 2/30 45.0
Claude-3-Opus 95.0 60.1 2/30 40.6
GPT-4-Turbo-1106 91.4 64.3 1/30 49.1
GPT-4-Turbo-0409 93.7 73.4 3/30 46.8
GPT-4o-0513 95.8 76.6 2/30 53.2
Open-sourcemodellen
Llama3-Instruct 70B 70B 93.0 50.4 1/30 27.9
DeepSeek-Coder-V2-Lite-Instruct 16B 2.4B 86.4 61.8 0/30 44.4
DeepSeek-Coder-V2-Instruct 236B 21B 94.9 75.7 4/30 53.7

Algemene natuurlijke taal

Benchmark Domein DeepSeek-V2-Lite Chat DeepSeek-Coder-V2-Lite Instruct DeepSeek-V2 Chat DeepSeek-Coder-V2 Instruct
BBH Engels 48.1 61.2 79.7 83.9
MMLU Engels 55.7 60.1 78.1 79.2
ARC-Easy Engels 86.1 88.9 98.1 97.4
ARC-Challenge Engels 73.4 77.4 92.3 92.8
TriviaQA Engels 65.2 59.5 86.7 82.3
NaturalQuestions Engels 35.5 30.8 53.4 47.5
AGIEval Engels 42.8 28.7 61.4 60
CLUEWSC Chinees 80.0 76.5 89.9 85.9
C-Eval Chinees 60.1 61.6 78.0 79.4
CMMLU Chinees 62.5 62.7 81.6 80.9
Arena-Hard 11.4 38.1 41.6 65.0
AlpaceEval 2.0 16.9 17.7 38.9 36.9
MT-Bench 7.37 7.81 8.97 8.77
Alignbench 6.02 6.83 7.91 7.84

Contextvenster

deepseek-coder-v2-Contextvenster

DeepSeek-Coder-V2 levert robuuste prestaties bij Needle In A Haystack (NIAH)-evaluaties en toont een consistente nauwkeurigheid over contextvensterlengtes tot 128K.

Chatwebsite

Gebruik DeepSeek-Coder-V2 rechtstreeks op het officiële platform coder.deepseek.com voor realtime-codeerondersteuning en geavanceerde taalmodelmogelijkheden.

API-Platform

DeepSeek Platform biedt een OpenAI-compatibele API op platform.deepseek.com, wat naadloze integratie met uw applicaties mogelijk maakt. Profiteer van ons pay-as-you-go-prijsmodel voor uitzonderlijke waarde en kostenefficiëntie.

deepseek-coder-v2-API-Platform

Contact

Als u vragen hebt of ondersteuning nodig hebt, kunt u een probleem melden in de DeepSeek-repository of rechtstreeks contact met ons opnemen via [email protected] op DeepSeekNederlands.nl – Bekijk hier de tutorial over het uitvoeren van het DeepSeek-Coder-V2-model!