Build · AX-02
AI Inference
Lokalna inference dla 70B LLM — dużo VRAM i szybki RAM. Serwer plików + Jupyter.
AI / MLLive preview · 3D
3.4k 301 58
inicjalizacja renderera
Wydajność
31 200
Pobór
812 W
Cena
29 890 zł
Benchmarki
Pełna baza Wyniki vs baseline Office+
Llama 70B tok/s
baseline 1222+83%
Cinebench R23 multi
baseline 3000041200+37%
3DMark Time Spy
baseline 2000031200+56%
PyTorch ResNet50
baseline 600820+37%
Komponenty w pełni kompatybilny
Komentarze (58)Dodaj komentarz
–
---
Brak komentarzy. Bądź pierwszy.