Neler Yeni

Yardım - İleriye yönelik ekran kartsız Yapay Zeka sistemi - 35k

Katılım
3 Kasım 2024
Mesajlar
199
Dahası  
Reaksiyon skoru
45
İsim
Alper Uğurcan
Bütçe Toplam 53k - Şimdilik 4060ti veya 3060 12gb alıp sonrasında para durumuma göre 4090, 5090 belki yeni Amd 9700 32gb versiyon çıkarsa o olabilir

Gpu - Yüksek vram Şimdilik 4060ti 16gb veya 3060 12gb
Cpu - Çok çekirdek kaliteli işlemci Ryzen 9 7900X mesela
Anakart - Çok soğutmalı ve fazlı çok iyi olur
Ram - 64 gb 6000mhz CL30
SSD - 1tb yüksek kalite
Kasa - Hiç bilmiyorum
Soğutucu - Hiç bilmiyorum
 

jombo

80+
Katılım
20 Şubat 2025
Mesajlar
379
Dahası  
Reaksiyon skoru
135
İsim
efe araci
GPU : 4060 ti ya bulaşma rx7800xt 16gb al kat kat iyidir fiyatıda daha ucuzdur.
cpu: rx7800x3d 2. elden alabilirsen iyi olur.
diğer şeyer hakkında ultra bilgim yok diğer arkadaşlar önerebilir.
 

mucel

80+ Bronze
Katılım
4 Haziran 2022
Mesajlar
800
Dahası  
Reaksiyon skoru
234
İsim
Muhammet Ali Seviptekin
GPU : 4060 ti ya bulaşma rx7800xt 16gb al kat kat iyidir fiyatıda daha ucuzdur.
cpu: rx7800x3d 2. elden alabilirsen iyi olur.
diğer şeyer hakkında ultra bilgim yok diğer arkadaşlar önerebilir.
kral adam oyun oynamıcakki x3d öneriyon adam yapay zeka diyor
 

jombo

80+
Katılım
20 Şubat 2025
Mesajlar
379
Dahası  
Reaksiyon skoru
135
İsim
efe araci

ghnn

80+ Bronze
Katılım
17 Mart 2021
Mesajlar
780
Dahası  
Reaksiyon skoru
281
İsim
Gökhan
GPU : 4060 ti ya bulaşma rx7800xt 16gb al kat kat iyidir fiyatıda daha ucuzdur.
cpu: rx7800x3d 2. elden alabilirsen iyi olur.
diğer şeyer hakkında ultra bilgim yok diğer arkadaşlar önerebilir.
kral yapay zeka uygulamaların büyük bir kısmı cuda kullanıyor
 

jombo

80+
Katılım
20 Şubat 2025
Mesajlar
379
Dahası  
Reaksiyon skoru
135
İsim
efe araci

firsatgamingx

80+ Gold
Katılım
19 Ekim 2020
Mesajlar
5,049
Dahası  
Reaksiyon skoru
2,788
İsim
Cem Ayar
Instagram
firsatgamingx
GPU : 4060 ti ya bulaşma rx7800xt 16gb al kat kat iyidir fiyatıda daha ucuzdur.
cpu: rx7800x3d 2. elden alabilirsen iyi olur.
diğer şeyer hakkında ultra bilgim yok diğer arkadaşlar önerebilir.
AMD alamaz, nvidia almak zorunda. VRAM yüksek olanlardan devam işlemcinin pek bi önemi yok, preprocessing çok yoksa tabii. Çekirdek sayısı daha önemli olabilir işleri çekirdeklere bölebilirsin vs ama ben 3060 + r5 5600x 16gb ram ile tezi çıkarttım
 
Katılım
3 Kasım 2024
Mesajlar
199
Dahası  
Reaksiyon skoru
45
İsim
Alper Uğurcan
  • Konu Sahibi Konu Sahibi
  • #8
doğru demişsin biraz dalgınım kusura bakmayın.
Teşekkürler hiç problem değil
Mesaj otomatik birleştirildi:

AMD alamaz, nvidia almak zorunda. VRAM yüksek olanlardan devam işlemcinin pek bi önemi yok, preprocessing çok yoksa tabii. Çekirdek sayısı daha önemli olabilir işleri çekirdeklere bölebilirsin vs ama ben 3060 + r5 5600x 16gb ram ile tezi çıkarttım
Ana makine yapacağım için bayağı güçlü olsun istiyorum
 

jombo

80+
Katılım
20 Şubat 2025
Mesajlar
379
Dahası  
Reaksiyon skoru
135
İsim
efe araci
Teşekkürler hiç problem değil
Mesaj otomatik birleştirildi:


Ana makine yapacağım için bayağı güçlü olsun istiyorum
yazılım odaklı pc toplamakta pek bilgim yok ama yapay zeka konusunda nvidia harikadır işlemcide çok çekirdekli istemişsiniz benim bildiğim kadarıyla bu tarz işlerde intel tercih etmek daha iyi oluyor bilgisi olan diğer arkadaşlarıda beklemek lazım.
 

gencur

80+
Katılım
16 Aralık 2024
Mesajlar
16
Dahası  
Reaksiyon skoru
8
İsim
A* E*
Başlıkta 35k, konu mesajında 53k olarak bütçe belirtmişsiniz bilginiz olsun.

AMD alamaz, nvidia almak zorunda. VRAM yüksek olanlardan devam işlemcinin pek bi önemi yok, preprocessing çok yoksa tabii. Çekirdek sayısı daha önemli olabilir işleri çekirdeklere bölebilirsin vs ama ben 3060 + r5 5600x 16gb ram ile tezi çıkarttım
Böyle söylemek oldukça yanıltıcı olur ya. Sadece inference için(eğitilmiş hazır bir modeli çalıştırmak olarak özetleyebiliriz) en çok kullanılan yazılımlardan biri olan llama.cpp tabanlı ollama yazılımı Nvidia(Cuda), AMD(ROCm) ve Intel(oneAPI denebilir, henüz oturtamadılar) hali hazırda destekliyor zaten. Inferencing için hangi ekran kartını aldığınızın çok bir önemi yok.
https://github.com/ollama/ollama/pull/3278 şurada intel gpu desteği de gelmiş oldu geçtiğimiz aylarda.

Inference konu başlığı haricinde ai alanında training gibi etkileşimlerde de bulunacaksanız, Nvidia Cuda şu an itibari ile önde olsa da AMD'nin ROCm teknolojisi ve george hotz isimli şahsiyetin tinygrad girişiminin AMD'ye kafayı takmış olması sayesinde, önümüzdeki yıllarda Nvidia ile ne yapabiliyorsanız AMD ile de yapabileceksiniz. Zaten ülkede Nvidia Cuda programlayabilen insan sayısı iki elin parmaklarını geçmez ama, günümüzde AMD ekran kartlarında da ROCm ile biraz ekstra kod yazarak Nvidia Cuda ile yapabildiğiniz her şeyin yapılabildiğini bilin. İnternetteki hazır projeler, kütüphaneler ve frameworklerin çok yüksek çoğunluğu Nvidia Cuda için yazıldığından ai alanında çalışırken akıl sağlığı için o.O2 Nvidia tercih edilmeli, ama tek seçeneğin bu olmadığını bilmekte fayda var. Bizzat denemedim ama PyTorch resmi olarak AMD ROCm destekliyor.

Deepseek R1 geliştirilirken Nvidia Cuda'nın sunduğu performanstan çok daha fazlasını almak istedikleri için PTX(Nvidia ekran kartları için assembly dili desek yanlış olmaz) dilinde kod yazmışlar. Cuda tarafı da dört dörtlük değil yani.

Uzun lafın kısası; şu an için para yetiyorsa Nvidia. Ucuza daha fazla VRAM cezbediyorsa AMD alıp önümüzdeki yıllarda(minimum 2 yıl sürecek gibi) AMD'nin Nvidia'yı yakalaması için dua edebilirsiniz. :D Ai için sistem toplama diye genelleştirmelerden ziyade siz tam olarak ne yapmak istiyorsunuz bu da önemli. Sadece inference için kullanacaksanız AMD de tercih edilebilir.
 
Katılım
3 Kasım 2024
Mesajlar
199
Dahası  
Reaksiyon skoru
45
İsim
Alper Uğurcan
Başlıkta 35k, konu mesajında 53k olarak bütçe belirtmişsiniz bilginiz olsun.


Böyle söylemek oldukça yanıltıcı olur ya. Sadece inference için(eğitilmiş hazır bir modeli çalıştırmak olarak özetleyebiliriz) en çok kullanılan yazılımlardan biri olan llama.cpp tabanlı ollama yazılımı Nvidia(Cuda), AMD(ROCm) ve Intel(oneAPI denebilir, henüz oturtamadılar) hali hazırda destekliyor zaten. Inferencing için hangi ekran kartını aldığınızın çok bir önemi yok.
https://github.com/ollama/ollama/pull/3278 şurada intel gpu desteği de gelmiş oldu geçtiğimiz aylarda.

Inference konu başlığı haricinde ai alanında training gibi etkileşimlerde de bulunacaksanız, Nvidia Cuda şu an itibari ile önde olsa da AMD'nin ROCm teknolojisi ve george hotz isimli şahsiyetin tinygrad girişiminin AMD'ye kafayı takmış olması sayesinde, önümüzdeki yıllarda Nvidia ile ne yapabiliyorsanız AMD ile de yapabileceksiniz. Zaten ülkede Nvidia Cuda programlayabilen insan sayısı iki elin parmaklarını geçmez ama, günümüzde AMD ekran kartlarında da ROCm ile biraz ekstra kod yazarak Nvidia Cuda ile yapabildiğiniz her şeyin yapılabildiğini bilin. İnternetteki hazır projeler, kütüphaneler ve frameworklerin çok yüksek çoğunluğu Nvidia Cuda için yazıldığından ai alanında çalışırken akıl sağlığı için o.O2 Nvidia tercih edilmeli, ama tek seçeneğin bu olmadığını bilmekte fayda var. Bizzat denemedim ama PyTorch resmi olarak AMD ROCm destekliyor.

Deepseek R1 geliştirilirken Nvidia Cuda'nın sunduğu performanstan çok daha fazlasını almak istedikleri için PTX(Nvidia ekran kartları için assembly dili desek yanlış olmaz) dilinde kod yazmışlar. Cuda tarafı da dört dörtlük değil yani.

Uzun lafın kısası; şu an için para yetiyorsa Nvidia. Ucuza daha fazla VRAM cezbediyorsa AMD alıp önümüzdeki yıllarda(minimum 2 yıl sürecek gibi) AMD'nin Nvidia'yı yakalaması için dua edebilirsiniz. :D Ai için sistem toplama diye genelleştirmelerden ziyade siz tam olarak ne yapmak istiyorsunuz bu da önemli. Sadece inference için kullanacaksanız AMD de tercih edilebilir.
Çok güzel özet olmuş aynen öyle. Daha doğru ifade edecek olursam hem training hem inference yapmak istiyorum. Yeri geldiğinde kendi local modelimi kendi bilgisayarım üzerinden dağıtabilmek falan istiyorum. İşlemci ve ram iyi istememdeki amaç data ile uğraşırken daha rahat olmak vs.

Ekran kartında şuan zaten emin değilim hepsi olabilir duruma göre ana kasayı sağlam toplamak sonrasında istediğim ekran kartını takabilmek istiyorum tabii alabilirsem :)
 

firsatgamingx

80+ Gold
Katılım
19 Ekim 2020
Mesajlar
5,049
Dahası  
Reaksiyon skoru
2,788
İsim
Cem Ayar
Instagram
firsatgamingx
Başlıkta 35k, konu mesajında 53k olarak bütçe belirtmişsiniz bilginiz olsun.


Böyle söylemek oldukça yanıltıcı olur ya. Sadece inference için(eğitilmiş hazır bir modeli çalıştırmak olarak özetleyebiliriz) en çok kullanılan yazılımlardan biri olan llama.cpp tabanlı ollama yazılımı Nvidia(Cuda), AMD(ROCm) ve Intel(oneAPI denebilir, henüz oturtamadılar) hali hazırda destekliyor zaten. Inferencing için hangi ekran kartını aldığınızın çok bir önemi yok.
https://github.com/ollama/ollama/pull/3278 şurada intel gpu desteği de gelmiş oldu geçtiğimiz aylarda.

Inference konu başlığı haricinde ai alanında training gibi etkileşimlerde de bulunacaksanız, Nvidia Cuda şu an itibari ile önde olsa da AMD'nin ROCm teknolojisi ve george hotz isimli şahsiyetin tinygrad girişiminin AMD'ye kafayı takmış olması sayesinde, önümüzdeki yıllarda Nvidia ile ne yapabiliyorsanız AMD ile de yapabileceksiniz. Zaten ülkede Nvidia Cuda programlayabilen insan sayısı iki elin parmaklarını geçmez ama, günümüzde AMD ekran kartlarında da ROCm ile biraz ekstra kod yazarak Nvidia Cuda ile yapabildiğiniz her şeyin yapılabildiğini bilin. İnternetteki hazır projeler, kütüphaneler ve frameworklerin çok yüksek çoğunluğu Nvidia Cuda için yazıldığından ai alanında çalışırken akıl sağlığı için o.O2 Nvidia tercih edilmeli, ama tek seçeneğin bu olmadığını bilmekte fayda var. Bizzat denemedim ama PyTorch resmi olarak AMD ROCm destekliyor.

Deepseek R1 geliştirilirken Nvidia Cuda'nın sunduğu performanstan çok daha fazlasını almak istedikleri için PTX(Nvidia ekran kartları için assembly dili desek yanlış olmaz) dilinde kod yazmışlar. Cuda tarafı da dört dörtlük değil yani.

Uzun lafın kısası; şu an için para yetiyorsa Nvidia. Ucuza daha fazla VRAM cezbediyorsa AMD alıp önümüzdeki yıllarda(minimum 2 yıl sürecek gibi) AMD'nin Nvidia'yı yakalaması için dua edebilirsiniz. :D Ai için sistem toplama diye genelleştirmelerden ziyade siz tam olarak ne yapmak istiyorsunuz bu da önemli. Sadece inference için kullanacaksanız AMD de tercih edilebilir.
AMD'de de yapabilir ancak CUDA en yaygın olanı olduğu için Nvidia almasını söyledim. LLM için mi kullanacak bilemiyoruz tabii ama ben mesela asteroid kullanmam gerekiyordu Conv-TasNet eğitimi için yazılmış bu kütüphaneyi sadece CUDA ile yapmam gerekiyordu. Problem yaşamaması adına Nvidia alması gerekir (ŞU ANLIK). Ancak şu anda mac için de yazılmış kütüphaneler var ama ben sadece nvidia olanını denedim çünkü AMD tarafında istediğimi elde edemedim. Eğitim için
Mesaj otomatik birleştirildi:

Mac lerin ramleri birleşik hem ram hem de vram olarak kullanılıyor. O da bir alternatif olabilir
 
Son düzenleme:
Top Bottom