Leaderboard


Popular Content

Showing most liked content on 09-01-2025 in all areas

  1. 3 likes
    aslında faydalı alanlarda kullanılabilir. mesela @nazareth klavyede yazı yazarken arkada AI onun bir sonra ki yazacağı kelimeyi tahmin edip arkadan düzelterek gelir. böylece nazareth aslında kendi dilinde yazarken AI arkada düzeltilmiş kelimeyi sunar. Bu amaçla faydalı şekilde kullanılabilir.
  2. 2 likes
    bu tarz oyun sevip bu oyuna başlamamış olan varsa başlamasın bence. hayatımı sömürdü. aklımdaki tek şey oyuna girip oynamak. sistemlere mekaniklere vs alışınca çok pis bağımlılık yapıyor. d4'e yemin ederim boşuna para vermişiz.
  3. 2 likes
    Ya bu HAM güç yok DLSS Fake frame yok tarak yok kürek artık çok uzadı. Ham güce oynayacak gpu yapılamıyor. Bunu bir anlasın artık insanlar. Adamlar DLSS modellerini geliştirmek için koca koca clusterlar kuruyorlar 8K 16K renderları alıp alıp modelliyorlar ve sonra bu modelleri hızlıca işleyip çalıştırabilecek kartlar tasarlıyorlar. Bu sayede çip alanından, tasarruf ediyorlar. Çünkü ROP olsun RTX core olsun bunlara harcayacağı alanı daha çok tensor core ve daha çok compute unit ve cache ile zenginleştirmek işine geliyor. Daha modüler ve daha hızlı tasarımlarla geliyorlar. Hem AI tarafında compute tarafındaki müşteriyi memnun edebiliyor hem de oyuncular tarafında yeterli performansı çıkartabiliyorlar. Sadece o sahneyi 60FPS raster ile oynatabilmek için koyacağı ROP yerine daha fazla ROP ve RT Unitesi koymakla uğraşmak istemiyor adam. Eskiden var olan bir teknolojiyi daha ileri seviyede oyunlara uyarladılar. Interlaced video çeken cihazlar vardı kameralar. Hem yerden kazanıyorlardı hem de daha hızlı kayıt alabiliyorlardı. Sonra bu interlaced source u FAKE Frameler ile progressive e çevirip videoyu daha akıcı hale getirebilmeye başladılar. PS2 de GOD OF WAR oyuncuları bile bilir. Oyun sabit bir interlaced çıktıya sahip. Bir ayarla progressive açabiliyorsunuz. Fake Frameler PS2 de bile vardı. Kimse şikayetçi olmuyordu. Koca koca DVD filmleri bir cd ye sıkıştıracak DIVX çıktığında da aynı nanenin bir benzeri oldu. Aynı kalitede görüntüyü daha küçük alana sıkıştırarak verebiliyorlar. Decoder upscaler çok güzel iş çıkartıyor nispeten size farkettirmeden. Sonra H264 H265 AV1 derken koptu gitti yine. Herşeyin en kalitelisi en kayıpsızına oynarsak altından kalkamayacağımızı anlamamız gerekiyor. Sonuç. NVIDIA yine sikertti ortalığı. 5090 alabilenler alacak. Alamayanlar elinin yetiştiğini alıp geçecek. Elindekiyle mutlu olan da bir jenerasyon daha bekleyecek sonra upgrade edecek. Bitti gitti.
  4. 2 likes
    Xiaomi lerden şaşmayın, anker 20000 aldım sinir oluyorum.
  5. 1 like
    Buna cevap vermemişim. PSU değiştiğinden beri hiç sorun yok. Kerbal Space Program hiç patlamadı o günden beri. Demekki ayrık kanallar yetmiyor beslemeye. Tek kanal bir EVGA 650W psu taktım elde duran. Sistem çiçek gibi oldu. 32gb ram ı geri taktım bir sıkıntısı da yok taş gibi çalışıyor sistem default ayarlarda.
  6. 1 like
    Çünkü 512bit bus çipin her tarafını sarmış vaziyette. PCB layer sayısını arttırıp diğer hatları geçirmek lazım bu sefer de heat dissipation sorun olacak. Çipi arkalı önlü soğutmak ve bunu minimum alanda yapmak adına bence mantıklı bir tasarım.
  7. 1 like
    Tensor core yapısı tamamen aynı mı onu bilemiyoruz işte. 40 serisinin tanıtımında dediğim gibi arada bir şeylerden bahsedildi, hatta görseli de vardı. Ama bulamadım. Özetle aynı sayıdaki tensor core, 40 serisinde eskilere göre daha fazla hesap yapabilir (daha güçlü, daha hızlı) durumda gösteriliyordu. Mesela 30 serisinin tanıtımında şöyle bir şey buldum: https://videocardz.com/newz/nvidia-details-geforce-rtx-30-ampere-architecture Tam olarak böyle bir şey olmasa da buna benzerdi diyeyim. O yüzden kesinlikle aynıdır, kesinlikle aynı şekilde çalışır diyemem ama şunu söyleyebilirim, iyi veya kötü, eski nesil kartlarda da bir şekilde çalışır. Ben bunu görmek isterim. Kötü çalışacaksa da sen o desteği ver arkadaş. RT core diye bir şeye sahip olmayan 10 serisinde RT desteği sundun, kartların patır patır döküldüğünü göstermek için yaptın bunu, ama yaptın. E şimdi de yap. Yok, olmaz. Çünkü o kadar kötü çalışamayacağı belli, en azından ben böyle düşünüyorum. Sorunlu olsa bile o sorunlar da azaltılabilir. Sürpriz olan kısım bu bence. İşte Nvidia'ya sövdüğümüz kısım da bu. O kısım hep sürpriz olarak kalacak. Belki ilerde Nvidia tüm bunları açık kaynak haline getirirse (Murat Gamsız 2024 değerlendirmesinde bundan da bahsediyordu) o zaman birileri merak edip uğraşır belki. Yoksa hiçbir zaman göremeyeceğiz.
  8. 1 like
    Nvidia 40 serisini tanıtırken, tensor çekirdeklerin yapısına dair ufak da olsa bir şeylerden bahsetti. Aslında temel özellikler aynı ancak nicelikte durum değişiyor. Her yeni mimaride tensor çekirdeklerin kapasitesi artıyor diyeyim. Buna bağlı olarak da yeni şeyler sunabildiklerini söylüyor Nvidia. Hatta frame generation özelliği eski mimarilerde de çalışabilir belki ama çok sorun çıkarabilir, çok yavaş olabilir, şu olur bu olur gibisinden laflar etmişti. Benzerini şimdi 40 vs 50 için de söyler. Ama bunların hepsi bana hikaye geliyor. Çünkü DX12'nin adı bile yokken DX11 olarak çıkmış tüm gpularına DX12 desteği kazandırdı bu firma. Ya da RT'nin adı yokken çıkmış olan GTX 10 serisine RT desteği kazandırdı. Çünkü o zamanlar rekabet vardı. Şimdi halihazırda aynı yapıda (ancak belli yönlerden zayıf) donanım desteğine sahip gpulara sen yeni özelliği eklemiyorsun. Çünkü en ufak bir rekabet kalmadı. Evet, klasik bir Nvidia ipneliği... Ha şuna da lafım yok, yeni ürünü elbette satmak ister firma. Ama sen zamanında eski kartlarına olmadık özellikleri kazandırabiliyordun. Şimdi donanımsal desteğe sahipken mi bunu yapamıyorsun? Sen yap, yavaş mı, sorunlu mu? Bırak ona biz karar verelim. Öyleyse zaten gidip yenisini alacaz. Ama işte onu bize göstermez, o kısım sürprizli çünkü. @SkyWarrior Kesinlikle fazla uzuyor. Diğerlerinin de Nvidia'yı sürekli takip etmesinden anlıyoruz ki; bu konuda tartışılacak pek bir şey yok. Ancak başka bir açıdan da Nvidia'nın izlediği yolu doğru buluyorum ben. İlk 40nm'ye geçişte sorunlar yaşanmıştı ve o zamanlar için 20nm sonrası öngörülemez durumdaydı. Zaten teknik olarak 40nm'nin altına inildi mi, o da tartışmalı denir hep. Neyse, biz o günlerde çok fark etmesek de artık üretim teknikleri fiziksel sınırlara doğru yaklaşıyor. Eskiden her yıl üretim tekniğinde ilerleme görürdük, artık 2-3 yılda bir görür olduk (daha da uzadığı oluyor hatta). Nvidia bunu çok erken dönemde gördü ve ona göre aksiyon aldı. Yapay zeka işini taa 20 yıl önce araştırmaya başladılar ve 7-8 sene önce ilk ürünlerini sunacak noktaya vardılar. Şimdi de onu geliştire geliştire bambaşka bir noktaya ulaştılar. Bunu yapmak zorundaydılar, çünkü performans artışları sınırlı hale gelecekti. Kendi kendine öğrenen ve gelişen bir yapıyı ortaya çıkarmak, bir noktadan sonra zorunlu olacaktı. Mesela 4090 çıkalı yaklaşık 27 ay oldu. Bu kadar süre zarfında 5090'ı anca sunabilen firma, aslında ham performans olarak 4090'dan %30-35 kadar güçlü bir kart sunmuş oldu. Eski dönemlere bakarsak bu berbat bir şey. Ben GeForce 7 serisini hatırlıyorum, 2005 haziranda falan çıkmıştı, 7800gtx en güçlü modeldi. Ama Ati yıl sonunda kartlarını sununca, 7800gtx geride kalacaktı. Nvidia da Ati'nin tanıtım yapacağı gün 7800gtx 512mb modelini sundu, normale göre %30-35 daha hızlıydı! Aynı yıl, birkaç ay sonra çıkan kart bu. Şimdi benzer sıçrama için 2 yıldan uzun süre beklememiz gerekiyor. Artık raster performansını artırarak bir yere varmak güç. Aslında bu durum yıllardır böyle. Ama çok da dillendirilmiyordu. Şimdi ise yüzümüze çarpıyor. Nvidia bu konuya çok kafa yorduğu ve ciddi kaynak ayırabildiği için kullanışlı ve kullanıcıya hitap eden (iyi cilalanmış) çözümler sunabiliyor. DLSS bunun en açık kanıtı. Amd'nin sıkıntısı ise, salt performansı artırmaya yönelik işlere öncelik vermesi ve geri kalan kısmı "aha biz de yaptık, bizde de var, nolmuş" gibi bırakması. FSR, açık kaynak olması sayesinde ve eski kartlarda da kullanılabiliyor olması sebebiyle çok daha yaygın kullanılabilecekken, DLSS'e tam anlamıyla rakip olamıyor bile. Bu saatten sonra olması daha da zor. Çünkü vizyon farkı var. Amd/Ati, hiçbir zaman Nvidia'nın sahip olduğu vizyona sahip olamadı. Ekonomik anlamda da o kadar güçlü olamadı tabi. Nvidia ise sorunu doğru teşhis etti, doğru bir tedavi yöntemi buldu, buna doğru şekilde kaynak ayırdı ve ortaya çıkan sonuç da tatmin edici oldu. Zaten bu kadar doğru hamleyi üst üste yapmasa dünyanın en değerli firması olamazdı. Bu saatten sonra piyasaya ve grafik teknolojilerine Nvidia'nın yön verecek olması da garip değil. Evet yapay kareler göreceğiz. Ama oyun dediğimiz şey zaten yapaylık değil mi? En gerçek grafikleri istiyorsak tüm işlemleri CPU'ya yaptırmamız gerekir. Öyle bir dünya mı kaldı? Bir gün gelecek, GPU işi tamamen AI hızlandırıcıya evrilecek. O zaman da benzerini söyleyeceğiz, GPU'ya görüntü çizdirme işi mi kaldı...