MiniMax M2.5 — model AI dorównujący Claude Opus za ułamek ceny
Chiński MiniMax wypuścił open-weight'owy model, który na SWE-Bench dogania Claude Opus 4.6 — za ~1/20 ceny. Sprawdzamy, kim jest MiniMax, jak model wypada w benchmarkach i jak podłączyć go do OpenClaw.
Opublikowano: 2026-02-16
Firma MiniMax
MiniMax to chińska firma AI z siedzibą w Szanghaju, założona w grudniu 2021 roku przez Yan Junjie i Zhou Yucong — byłych dyrektorów SenseTime, jednej z największych firm AI w Chinach. Nazwa firmy pochodzi od algorytmu minimax z teorii gier.
Firma jest znana z aplikacji Talkie (4. najczęściej pobierana aplikacja AI w USA w pierwszej połowie 2024) oraz platformy multimedialnej Hailuo AI. W 2024 roku MiniMax zebrał 600 mln USD w rundzie Series B od Alibaby, a następnie wszedł na giełdę w Hongkongu, gdzie w IPO pozyskał 4,8 mld HKD (~620 mln USD) — kurs akcji podwoił się pierwszego dnia notowań.
Model MiniMax M2.5
MiniMax M2.5 to najnowszy model z serii M2, wydany 11–12 lutego 2026. Wykorzystuje architekturę Mixture-of-Experts (MoE) z 230 miliardami parametrów, z czego tylko 10 miliardów jest aktywnych w danym momencie. Okno kontekstu to 205 000 tokenów (z planami rozszerzenia do 512k).
Model został wytrenowany przy użyciu autorskiego frameworka Forge RL na ponad 200 000 rzeczywistych środowiskach roboczych. Wynik? Na SWE-Bench Verified (główny benchmark programistyczny) M2.5 osiąga 80.2% — zaledwie 0.6 punktu procentowego za Claude Opus 4.6 i 0.2 pp. przed GPT-5.2.
Dlaczego to ważne dla użytkowników OpenClaw?
OpenClaw pozwala podłączyć dowolny model AI przez OpenRouter. MiniMax M2.5 jest tam dostępny za $1.20 / 1M output tokenów — to 20× mniej niż Claude Opus ($25.00). Jeśli szukasz modelu o frontierowej jakości bez rozbijania banku, czytaj dalej.
Co wyróżnia MiniMax M2.5?
Architektura MoE — więcej za mniej
Mixture-of-Experts to architektura, w której model ma 230 miliardów parametrów, ale przy każdym zapytaniu aktywuje tylko 10 miliardów. Reszta „ekspertów" czeka w gotowości. Efekt? Jakość odpowiedzi porównywalna z modelami o pełnych 200B+ parametrów, ale przy wielokrotnie niższym zużyciu zasobów. To dlatego M2.5 można hostować na sprzęcie, na którym inne modele frontierowe nie miałyby szans.
Forge RL — trening na prawdziwych zadaniach
MiniMax opracował autorski framework treningowy Forge, który wykorzystuje reinforcement learning na ponad 200 000 rzeczywistych środowiskach roboczych. Model uczył się na prawdziwych zadaniach programistycznych, biurowych i agentowych — nie na syntetycznych benchmarkach. Dzięki algorytmowi CISPO (Clipped Importance Sampling Policy Optimization) i mechanizmowi tree-structured merging osiągnięto ok. 40-krotne przyspieszenie treningu.
„Architect thinking" — planuje zanim napisze kod
M2.5 wykazuje unikalne zachowanie: przed napisaniem kodu aktywnie dekomponuje zadanie, planuje strukturę, architekturę i interfejs — jak doświadczony programista. To sprawia, że generowany kod jest lepiej zorganizowany i wymaga mniej poprawek.
Lider w function calling
Na benchmarku BFCL Multi-Turn (Berkeley Function Calling Leaderboard) M2.5 osiąga 76.8% — najlepszy wynik ze wszystkich testowanych modeli. Dla porównania, Claude Opus 4.6 uzyskał 63.3%, a Gemini 3 Pro — 61.0%. To kluczowe dla agentów AI takich jak OpenClaw, które intensywnie korzystają z wywoływania narzędzi i funkcji.
Dwa warianty: Standard i Lightning
M2.5 Standard
- Szybkość: ~50 tokenów/s
- Input: $0.30 / 1M tokenów
- Output: $1.20 / 1M tokenów
- Optymalny do zadań agentowych i automatyzacji, gdzie liczy się koszt
M2.5 Lightning
- Szybkość: ~100 tokenów/s
- Input: $0.30 / 1M tokenów
- Output: $2.40 / 1M tokenów
- Idealny do interaktywnej pracy w OpenClaw, gdzie liczy się szybkość
Oba warianty to ten sam model — różnica to wyłącznie szybkość generowania i cena output tokenów. Jakość odpowiedzi jest identyczna.
Rankingi i benchmarki — jak wypada na tle konkurencji?
MiniMax M2.5 osiąga wyniki porównywalne z najdroższymi modelami zamkniętymi. Oto najważniejsze dane:
80.2%
SWE-Bench Verified
(0.6 pp. za Claude Opus)
76.8%
BFCL Multi-Turn
(#1 wśród wszystkich modeli)
51.3%
Multi-SWE-Bench
(#1 wśród wszystkich modeli)
Szczegółowe wyniki benchmarków
| Benchmark | MiniMax M2.5 | Claude Opus 4.6 | GPT-5.2 | Kimi K2.5 | Gemini 3 Pro |
|---|---|---|---|---|---|
| SWE-Bench Verified | 80.2% | 80.8% | 80.0% | 76.8% | — |
| Multi-SWE-Bench | 51.3% | 50.3% | — | 51.3% | — |
| BFCL Multi-Turn | 76.8% | 63.3% | ~59% | 76.8% | 61.0% |
| BrowseComp | 76.3% | 84.0% | 77.9% | 74.9% | 59.2% |
Kluczowe wnioski:
- SWE-Bench Verified: Top 3 (M2.5, Opus, GPT-5.2) mieści się w granicach 0.8 pp. od siebie — to de facto remis w praktycznym użytkowaniu.
- Function calling (BFCL): M2.5 i Kimi K2.5 dominują (~77%), znacznie wyprzedzając Claude Opus (63%) i GPT-5.2 (~59%).
- BrowseComp: Claude Opus prowadzi (84%), ale M2.5 (76.3%) i GPT-5.2 (77.9%) są blisko. Gemini 3 Pro wyraźnie z tyłu (59.2%).
Więcej o Kimi K2.5 — modelu z podobnym wynikiem BFCL — pisaliśmy w osobnym artykule.
Cennik na OpenRouter — ile kosztuje MiniMax M2.5?
Największą zaletą MiniMax M2.5 jest stosunek jakości do ceny. Na OpenRouter (z którego korzysta większość użytkowników OpenClaw) ceny wyglądają tak:
| Model | Input / 1M tokenów | Output / 1M tokenów | Kontekst |
|---|---|---|---|
| MiniMax M2.5 | $0.30 | $1.20 | 205k |
| MiniMax M2.5 Lightning | $0.30 | $2.40 | 205k |
| Kimi K2.5 | $0.45 | $2.25 | 262k |
| GPT-5.2 | $2.50 | $10.00 | 128k |
| Claude Opus 4.6 | $5.00 | $25.00 | 200k |
Co to oznacza w praktyce?
Typowe złożone zadanie agentowe kosztuje ok. $8.45 na MiniMax M2.5 Lightning vs ok. $264 na Claude Opus 4.6 — to 30-krotna różnica przy praktycznie identycznych wynikach na SWE-Bench. MiniMax reklamuje model jako kosztujący $1 za godzinę ciągłej generacji przy 100 tok/s.
Szczegółowe porównanie cenowe z Kimi K2.5 — innym tanim modelem o frontierowej jakości — znajdziesz w naszym artykule o Kimi K2.5. Możesz też skorzystać z naszego kalkulatora kosztów OpenClaw, żeby porównać wszystkie modele naraz.
Self-hosting — czy można hostować samemu?
Tak! MiniMax M2.5 jest modelem open-weight na licencji Modified MIT, co oznacza pełne wagi dostępne do pobrania i komercyjnego użytku. Pliki modelu znajdziesz na:
- Hugging Face: MiniMaxAI/MiniMax-M2.5 (pełna precyzja)
- Hugging Face (GGUF): unsloth/MiniMax-M2.5-GGUF (wersje skwantyzowane)
- Ollama:
ollama run minimax-m2.5
Wymagania sprzętowe
Pełna precyzja (BF16)
~457 GB VRAM
- 4× NVIDIA H200 lub H20 (96 GB)
- 4× NVIDIA A100 lub A800 (80/96 GB)
- Obsługa do 400k tokenów KV cache
Quantized 3-bit (GGUF)
~101 GB (62% mniej)
- Mac Studio M4 Ultra z 128 GB RAM (~20+ tok/s)
- 1× GPU 16 GB + 96 GB RAM systemowego (~25+ tok/s)
- Wersja 2-bit: od ~96 GB łącznie
Narzędzia do uruchomienia
- vLLM — wysokowydajny serwer inferencji z efektywnym zarządzaniem pamięcią
- SGLang — rekomendowany przez MiniMax do optymalnego serwowania
- KTransformers — umożliwia hybrydową inferencję CPU-GPU, idealne dla sprzętu konsumenckiego
- Ollama — najprostszy sposób na lokalne uruchomienie:
ollama run minimax-m2.5
Dlaczego self-hosting jest w ogóle możliwy?
Dzięki architekturze MoE — mimo 230B łącznych parametrów, w danym momencie aktywne jest tylko 10B. To sprawia, że M2.5 można uruchomić na sprzęcie, na którym inne modele frontierowe (z pełnymi 200B+ aktywnych parametrów) po prostu by się nie zmieściły.
Jak podłączyć MiniMax M2.5 do OpenClaw?
Podłączenie MiniMax M2.5 do OpenClaw zajmuje dosłownie 2 minuty. Potrzebujesz tylko klucza API z OpenRouter.
Krok 1: Zdobądź klucz OpenRouter
- Wejdź na openrouter.ai i załóż konto (lub zaloguj się)
- Przejdź do Settings → Keys
- Kliknij Create Key i nadaj mu nazwę (np. „openclaw")
- Skopiuj klucz — zobaczysz go tylko raz
Krok 2: Skonfiguruj OpenClaw
Jeśli jeszcze nie masz skonfigurowanego OpenRouter w OpenClaw, użyj kreatora:
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "TWÓJ_KLUCZ_API" Krok 3: Ustaw MiniMax M2.5 jako model
W terminalu (wersja Standard):
openclaw models set openrouter/minimax/minimax-m2.5 Lub wersja Lightning (2× szybsza):
openclaw models set openrouter/minimax/minimax-m2.5-lightning Możesz też przełączyć model bezpośrednio w czacie z OpenClaw:
/model openrouter/minimax/minimax-m2.5 Opcjonalnie: Model fallback
Warto ustawić model zapasowy na wypadek, gdyby M2.5 był chwilowo niedostępny:
openclaw models fallbacks add openrouter/anthropic/claude-sonnet-4-5 Nie chcesz konfigurować samodzielnie?
W ramach naszych pakietów wdrożeniowych konfigurujemy OpenClaw od A do Z — w tym podłączenie OpenRouter i ustawienie optymalnych modeli. Ty dostajesz gotowego agenta, który działa od pierwszego dnia.
Podsumowanie — kiedy wybrać MiniMax M2.5?
MiniMax M2.5 to przełomowy model open-weight, który powinien znaleźć się na radarze każdego użytkownika OpenClaw. Oto szybki przewodnik:
Wybierz MiniMax M2.5, gdy:
- Chcesz frontierowej jakości za ułamek ceny
- Potrzebujesz modelu z najlepszym function calling
- Planujesz self-hosting na własnym sprzęcie
- Zależy Ci na dużym oknie kontekstu (205k)
- Automatyzujesz złożone zadania agentowe
Piękno OpenClaw polega na tym, że nie musisz się ograniczać do jednego modelu.
Możesz ustawić MiniMax M2.5 jako model główny do codziennych zadań agentowych,
a Claude Sonnet lub Kimi K2.5 jako fallback do zadań specjalistycznych.
Przełączanie modeli to jedna komenda:
/model openrouter/minimax/minimax-m2.5.
Chcesz korzystać z MiniMax M2.5 w OpenClaw?
Wdrożymy OpenClaw na Twoim sprzęcie, skonfigurujemy OpenRouter z optymalnym doborem modeli i zapewnimy, że wszystko działa od pierwszego dnia. Bez bawienia się w konfigurację.