Birden Fazla Eski GPU ile AI Train Mümkün mü?

unan

80+
Katılım
7 Eylül 2025
Mesajlar
1
Reaksiyon skoru
0
Selamlar, konu net:


Colab’e sürekli para vermekten bıktım. T4’ü, A100’ü geçtim; artık 4090 almak bile hayal olmuş durumda.
Aklıma şu soru takıldı:
Acaba birden fazla eski Nvidia GPU’yu riser kullanarak tek bir sistemde toplayıp, AI training veya büyük modelleri (ör. 7B–14B) çalıştırmak mümkün mü?
Yani madencilik rig’i mantığıyla:
  • 4–6–8 tane 4 GB / 6 GB / 8 GB kart
  • PCIe riser’lar
  • Tek anakart
→ Bunları “birleştirip” bir AI eğitim makinesi haline getirmek mantıklı mı?
GPT abimiz, GPU’lar arası iletişim PCIe x1/x4 hızına düştüğü için darboğaz olacağını söylüyor.
Ama yine de merak ediyorum:
  • Çoklu eski GPU → Eğitimde gerçekten işe yarar mı?
  • Model parallel / tensor parallel ile VRAM’i “dağıtarak” büyük modeller çalıştırılabilir mi?
  • Yoksa pratikte verim çok mu düşük kalır?
Bu konuda deneyimi olanların görüşlerini merak ediyorum.
 
Yeni mesajlar Yeni Konu Aç  

   

SON KONULAR

Forum istatistikleri

Konular
1,171,365
Mesajlar
10,558,059
Üyeler
186,054
Son üye
adaaaaaa
Geri
Top