Birden Fazla Eski GPU ile AI Train Mümkün mü?

unan

80+
Katılım
7 Eylül 2025
Mesajlar
1
Reaksiyon skoru
0
Selamlar, konu net:


Colab’e sürekli para vermekten bıktım. T4’ü, A100’ü geçtim; artık 4090 almak bile hayal olmuş durumda.
Aklıma şu soru takıldı:
Acaba birden fazla eski Nvidia GPU’yu riser kullanarak tek bir sistemde toplayıp, AI training veya büyük modelleri (ör. 7B–14B) çalıştırmak mümkün mü?
Yani madencilik rig’i mantığıyla:
  • 4–6–8 tane 4 GB / 6 GB / 8 GB kart
  • PCIe riser’lar
  • Tek anakart
→ Bunları “birleştirip” bir AI eğitim makinesi haline getirmek mantıklı mı?
GPT abimiz, GPU’lar arası iletişim PCIe x1/x4 hızına düştüğü için darboğaz olacağını söylüyor.
Ama yine de merak ediyorum:
  • Çoklu eski GPU → Eğitimde gerçekten işe yarar mı?
  • Model parallel / tensor parallel ile VRAM’i “dağıtarak” büyük modeller çalıştırılabilir mi?
  • Yoksa pratikte verim çok mu düşük kalır?
Bu konuda deneyimi olanların görüşlerini merak ediyorum.
 
Geri
Top