Mesaj tarihi: Eylül 22, 2022 DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards. Nvidia o.ç evladı bunu sadece RTX40 serisinde çalışacağını duyurmuş. Kahpesiniz. Götünüzden kan alıcasıcılar rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 (düzenlendi) 40x0 serisi 4nm, 30x0 serisi 8nm. Saat hizi daha yuksek Yapay zeka hesaplamalari icin kullanilan tensor core miktari daha fazla. Yapilan islemlerin sirasinin cizelgesini dinamik olarak hazirlayarak ciddi performans artisi saglaniyor. (Shader Execution Reordering, SER) Bu sekilde kulanilacagi bilinen yeni mimarinin donanimi tasarim sirasinda buna gore optimize edilerek hazirlanmis. Sen nvidia olsan ve yeni ekran karti satman gerekiyor olsa, AMD ve Intel gibi devlerin henuz yetisemedigi, yapamadigi, emsali olmayan yeni teknoloji gelistiriyor olsan, elindeki limitli kaynaklarini yeni teknolojiyi bu kartta calistirmak icin mi harcarsin yoksa "2 yil once piyasaya gelmis kartlarda da calismayacaksa ben bu teknolojiyi gelistirmem arkadas" mi dersin? Tabi ki yeni teknolojiyi ilk olarak en yuksek islem gucu olan donanimda hazirlayacaklar. nvidia teknolojiyi gelistiriyor. Rekabette one geciyor. Rakipler alt modellerde rekabeti zorlar da kaynaklarini oraya harcamasi gerekirse o ozellikler alt modellere de geliyor. Yoksa kaynaklarini bir sonraki mimariye ayiriyor Kimsenin sinirsiz kaynaklari yok. Basarili olmak icin yapilmasi gereken belli. Onu yapiyor. 1. AMD'den MCM geldiginde GPU icindeki iletisimde gecikmelerden oturu performans kaybi buyuk olmazsa, 2. Bu sekilde bir suru ufak GPU'yu uc uca yapistirip nihayet nvidia'ya rakip olabilir hale gelirlerse 3. "Onlarin yapay olarak urettigi kareleri biz gercekten uretiyoruz ve iste fark bu videoda gorulebilir" diye onumuze koyarlarsa ve gercekten gozle gorulebilir bir fark olursa Nihayet biraz rekabet olur. Ama o durumda bile nvidia'nin kaynaklarini ust seviyeye aktarmasi makul. Gecmisine bakilirsa AMD'nin bunu becermesi zaten zor, anca yetismeye calisiyorlar, Intel henuz onu da yapamiyor. Ayrica nvidia'nin yaklasimi CPU darbogaz yarattiginda da 2x kare hizi saglayabiliyor, AMD'nin "biz o kareleri gercekten uretiyoruz" demesi teknik olarak hic bir zaman mumkun olmayabilir. MCM yaklasiminin "iste GPU'nun su birimleri su chipte, bu yeni AI birimleri bu chipte" mertebesine gelip giris seviyesi kartlarda da ise yaramasi icin iki sey gerekiyor. 1. Yine MCM'de GPU icindeki iletisimde gecikmelerden oturu performans kaybi buyuk olmamasi lazim, 2. AMD'nin bu tarz yapay zekaya ozel birimleri tasarlamayi ogrenmesi lazim. Bu ikincisi icin uzmanlasan bir sirketi satin aldilar ama bu nesilde meyvesini gormemiz biraz zor olabilir. Neticede nvidia yapmasi gerekeni yapiyor. 1. 30x0 serisinde rakipden geri uretim teknolojisi kullanmasina ragmen rakibi yakalayacak sekilde mimarisini gelistirdi. 2. Ayni sekilde sogutmasini ve yuksek guc kullanimi altinda yanmayan ekran karti tasarimini gelistirdi. 3. Universitelerle white paper'lar yazarak AI uzerinde calisti, algoritmalarini rafine etti, darbogazlari tespit edip mimariyi rafine etti ve gorevlerini dinamik olarak schedule edecek mantigi hazirladi. 4. 40x0 serisinde bu avantajlarin ustune 8nm'den 4nm'e gecerek daha cok birim ekledi, daha yuksek saat hizina cikti. 5. Tek chip GPU tasarimin zirvesi donanimda yeni nesil yazilimlarini tasarliyor. Yapabildiklerinin sinemada para verip izledigimiz CGI Disney/Pixar filmlerinden pek farki kalmadi: https://www.youtube.com/watch?v=AsykNkUMoNU Biz biraz fakirik, hangi karti ne zaman elden cikarsak da yeni gelen kartin hangi fiyat seviyesinde olanini alsak diye bizim de kafa yormamiz gerekiyor ama yine de her zaman yetisemiyoruz, o ayri. Eylül 22, 2022 epi tarafından düzenlendi rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 7 hours ago, jackjoker said: DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards. Nvidia o.ç evladı bunu sadece RTX40 serisinde çalışacağını duyurmuş. Kahpesiniz. Götünüzden kan alıcasıcılar orospu çocukluğu başka bir şey değil. 3 nesil önceki karta gelmeyen özellikleri anlarım ama 1 nesil öncesine gelmemesi nedir amk, heleki tamamen yazılım ile yapılan bir şeyi. 4. jenerasyon tensör core falan hikaye tamamen yazılımdır o. jackjoker, ZvAnA and MilesTeg beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 1 aya dlss3 modlu sürücü çıkar, birkaç ay sonra da resmi olarak gelir MilesTeg, ZvAnA and jackjoker beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 Evrene dilek yolluyorsak ben de her oyuna DLSS injector istirem. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 On 9/22/2022 at 6:57 PM, TiesTorN said: orospu çocukluğu başka bir şey değil. 3 nesil önceki karta gelmeyen özellikleri anlarım ama 1 nesil öncesine gelmemesi nedir amk, heleki tamamen yazılım ile yapılan bir şeyi. 4. jenerasyon tensör core falan hikaye tamamen yazılımdır o. şu saatten sonra parasında da değilim, bir keyfim bu kaldı, neyse verir geçerim ama böyle durumları okudukça ifrit oluyorum. mına kodumun gözü dönmüş aç-kuduz köpekleri. hadi biz kıçı kırık 3070 Ti - 3080 falan aldık ama 3090 falan alan adamın suratına atılmış balgamlı bir tükürüktür bu. 3 nesil öncesi GTX kartları desteklemez tamam anlarım, RTX 2000 kısmi kullanabilir falan der onu da kabul ederim ama daha bir önceki nesil kart kullanamayacak denmesi dediğin gibi tamamen orospu çocuğu olmaları dolayısıyladır. jackjoker, ZvAnA and MilesTeg beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 RTX3000 için dlss 3 verilmezse tamamen yeni kart satış pazarlaması muhabbeti zaten. DLSS 3 için zaten açıkca DLSS 2 ' de kullanılan tekniğe 2 renderlanan karenin işlenerek yeni bir kare üretilmesi varsayımına dayanan bir mantık ile kullanılacak anlaşılan bu durumda yazılımsal bir durumu eski serinin hatta RTX2000' lerin bile işleyemeyeceği ne var sorusu geliyor insanın aklına ? Bunun haricinde kağıt üstü kas güçleri elbetteki farklı. Bu arada nvidia bu isimlendirme ara seriler vs derken iyice sıçış moduna girdi. 4080 gibi bir kart yapıyorsun çift versiyonu var biri AD103 diğeri AD104 temelli, kalkıp AD104' ten birde 4070 yapıyorsun temelde 4080' den farkı yok. "WTF???" dedirtiyor insana. Birde arkadaşlar normalde xx70 serileri eskiden bu yana orta kaslı seri diye biliriz burada arkadaşlar bellek arayüzünde 192bit hatta alt grup olan 4070 için 160bit gibi daha saçma ara bi bit değerine kadar iniyor o ne lan işiniz yoktu 128 - 256 arasına 192 koymuştunuz şimdi bide 160 mı çıkarttınız başımıza... Zaten bu aynı isim oyunları altında gelen saçmalama işi 3000 serisinde de son zaman patlak vermişti. Yani rtx3080 yaptınız 10gb üstüne 12gb geldi. Baktığında dersin ki evet 4k içindir 2gb daha fazla düşünülmüş heralde ama gel gelelim kendi donanım gücüde 10gb lıktan çok daha yüksek nerdeyse ti potansiyeli var. 3070 ti için gddr6x yapmışken kalkıp 3070 2. kez modifiye edip gddr6 yerine gddr6x eklemek ney ? Yani bu tamamen biz üretimde baya baya failler veriyoz ti yapamadık kartı yandan çaklı 3070 ama belleği daha iyi bant genişliği var teranesi. jackjoker beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 22, 2022 2 hours ago, stardust said: hadi biz kıçı kırık 3070 Ti - 3080 falan aldık ama 3090 falan alan adamın suratına atılmış balgamlı bir tükürüktür bu. Nvidia top-end kart alanları ilk defa öpmüyor. Miller 1000$ verip GTX TITAN aldıktan sonra 650$'a Titan'dan daha hızlı 780Ti çıkarmışlardı. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 GeForce 2 Ultra ciktiktan hemen sonra GeForce 3 cikmisti. Eskiden beri “en hizlisini, en iyisini hemen istiyorum” diyenin masrafi da ona gore oluyor. 30x0 bir onceki mimari ama 2 yil oncesinin kartlari. GeForce 2 Ultra ile GeForce 3 arasinda bir kac ay vardi. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 Bu DLSS iyi güzel ama "sahte" Bütün firmalar bu sahte görüntü üstüne kasıyor deli gibi, Native çözünürlüklerden native fps'lerden bahseden yok. Ekran görüntüsü üstüne 4K 120fps falan yazmışlar ama o görüntü native değil ki Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 (düzenlendi) 3090’de 8-10 fps calistirarak anca fikir sahibi olacagimiz, 3070’larda falan 3-5 fps belki calisacak, 1080Ti’da 1fps bile olmayacak ayarlari 4090 native 20fps calistiracak, DLSS ile 60fps verecek. Isteyen ayarlari dusuk tutar, DLSS’i kapatir, “öz hakiki kareler” ile oynar, yine rakip her karttan yuksek hizda calisir. Isteyen ayarlari kökler, DLSS’i acar, “vay umuna goyim” ayarlarda oynar, rakip her karttan guzel goruntu elde eder. Digital Foundry’nin incelemesi geldiginde “goruntu kalitesinde fark sifira yakin, hissedilir gecikme yok gibi” derlerse olmus bu deriz. Yoksa zamanla oturur. Onceki nesil uzerine yaklasik 2x native hiz artisi verip yaklasik 2x de yeni DLSS’den artis vermeyi basarmislarsa öper basima koyarim. Bir sonraki nesilde “sen bana 4K’da sabit 120fps ver, bunu gucun yettiginde native, yapamadiginda DLSS ile ver” modu da geldiginde konu kapanir. Bi “ibinelik” aranacaksa orada aranmali. O tarz bir mod teoride mumkun ama onu verseler bi sonraki karti nasil satacaklar, gsync’i nasil satacaklar? O yuzden onu rekabet zorlayana kadar gormeyiz. Rakibin de isine gelmedigi icin onlar ya yapmaz. Asil sorun o. Duopoly (ya da Intel ile 2+1) varken “rekabet” bir yere kadar. Bunlara “yazilim sadece” diye bakmamak lazim. O yazilima ozel donanimda calisan yazilim. AI islemlerini hizli gerceklestirmek icin ozel tasarlanmis islem birimlerinde calisiyor. Bir esik asilmadan, mesela “native goruntu isleyen birimlerle 60 fps goruntu cizebiliyoruz, AI birimlerimiz de onu saniyenin 1/240’sinde isleyerek bir sonraki kare tahminini ciziyor, saniyenin son 1/240’sinde de oyun motorundan gelen yeni durum verisiyle ona son bir duzeltme cekiyor” seviyesinde hizli islemi yapacak donanim olmadan bunu yazilimla gercek zamanli yapamazlar. Olur belki ama kalite duser (native ile arasindaki fark acilir). Bu sefer ‘buyuk navi geliyor” komplo teorisi video kanallariniz “iste bakin DLSS ne kadar cirkin” diye o goruntuleri paylasir. Asil derin ibineligi de isi gucu milletin sirtindan reklam geliri elde etmek olup sacma sapan icerik yaratan bu kanallarda aramak lazim. Cag dezenformasyon cagi. Bir avuc click icin. For a few clicks more. Sezar’in hakki Sezar’a. Eylül 23, 2022 epi tarafından düzenlendi rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 (düzenlendi) Mesajların hepsini okumadım ama normalde RTX40 serisindeki tensor core'lara özel gibi söylenen özellikler aslında eski modellerde (Turing'lerde bile) mevcut. Ancak yeteri kadar güçlü değil. Teknik özellik tablosunda da görülüyor bu. Öyle olunca da yeni DLSS RTX40'lara özel oluveriyor. Ama sürücü tarafında eski modellere de destek gelmesi, Amd'nin sağlam bir hamlesine bakar. Bkz: DX12 desteği. Eylül 24, 2022 mamad tarafından düzenlendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 Yeni PSU da lazım. https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/ rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 41 minutes ago, wazzap said: Yeni PSU da lazım. https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/ 12v 50A-55A falan çok ciddi rakamlar. Kablo da eritir yangın da çıkarır. Bildiğin araba aküsü üzerinde görmeye alıştığımız değerler bunlar. Kendi PSU'su olan 220V girişli ekran kartlarını görürüz yakında. 5 slot 6 slot 3 fanlı 4 fanlı 8kg ekran kartları. Bu gpu'ların gittiği yoldan çok hoşlaşmıyorum. rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 23, 2022 (düzenlendi) On 23/09/2022 at 11:47 PM, wazzap said: Yeni PSU da lazım. https://wccftech.com/atx-3-0-12vhpwr-gen-5-connector-major-safety-risk-using-adapter-confirms-pci-sig/ İnsanların sevinci kursağında kalacak. Bu konuyu merak ettim ve araştırırken reddit'de bir tartışma var: https://www.reddit.com/r/buildapc/comments/xk0izw/rtx_40_announcement_does_anyone_know_if_nonatx_30/ Kimisi mevcut PSU'ların adaptör ile sorunsuz çalışacağını öne sürüyor, kimisi sorun olayacağını söylüyor. En iyisi belli başlı inceleme grupları ve kanalları bu konuya el atmadan yeni bir RTX 4090 almamak. Ekim 6, 2022 rammstein tarafından düzenlendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 24, 2022 9 saat önce, Whooosh said: Bu gpu'ların gittiği yoldan çok hoşlaşmıyorum. https://www.youtube.com/watch?v=yQIbQHd-nH4 rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 24, 2022 (düzenlendi) 21 saat önce, Whooosh said: 12v 50A-55A falan çok ciddi rakamlar. Kablo da eritir yangın da çıkarır. Bildiğin araba aküsü üzerinde görmeye alıştığımız değerler bunlar. Kendi PSU'su olan 220V girişli ekran kartlarını görürüz yakında. 5 slot 6 slot 3 fanlı 4 fanlı 8kg ekran kartları. Bu gpu'ların gittiği yoldan çok hoşlaşmıyorum. Yıllardır söylüyoruz, anlatamıyoruz. Maxwell/Pascal dönemi çok iyiydi. Enerji verimliliği zirveye çıkmıştı. Masaüstü performansı laptoplara getirmeyi başarmıştı Nvidia. 3 nesildir enerji verimliliği boka sarıyor. Ben aşırı önemsiyorum bu konuyu. Zamanında Fermi karşısında da Evergreen ailesi başarılı olmuştu. Şimdi Nvidia güç tüketimini böyle coştururken, Amd güzel bir verimlilik artışı sağlarsa, sağlam bir gol atabilir. Navi2 ile de yaptığı başka bir şey değildi zaten. Ve Amd Navi3 için de yalnızca enerji verimliliği üzerine konuştu şimdiye kadar. RTX40'ların güç tüketimi üzerine de çok fazla konuşmanın anlamı yok gibi. Bir kere, feci şekilde kırpılmış ve aslında 4070 olacak olan 4080 bile 285w denmiş. Ama çok daha fazlasını çekebilme potansiyeli var deniyor. Abicim bu noktada konu kapanmıştır. Eğer böyle bir durum varsa, zaten 3090'la 4080 arasındaki enerji verimliliği farkı çok cüzzi bir düzeyde kalacaktır. Bu da Nvidia'nın mimarisinin gittikçe düzelmek yerine daha dengesiz hale geldiğini gösterir. Zaten tanıtımdaki gariplik ortada. Nvidia hiç öyle iddialı değildi. Normalde bir nesilden diğerine 4 kata varan performans artışı iddiasında bulunuyorsan, bunu sağır sultana değil, dağlara taşlara bile duyurursun. Pascal'da VR bıdı bıdısı sayesinde enerji verimliliği 3 kata kadar artıyor diye öyle bir duyurmuşlardı ki; VR gündeme bile gelmedi ama herkes bunu konuştu. Ama burada DLSS 3.0 + oyun desteği, e inşallah yakın zamanda istendiği gibi çıkacak o oyunlar, hem zaten RTX30 serisi de satışta kalacak, ayrıca artık ucuz kart beklemeyin derken hiç de öyle tarih yazan bir sunum olmadı. Maxwell'den sonra her yeni nesil tanıtımda Nvidia'nın sunumları aşağı doğru indi gibi geliyor bana. Şimdi de en ucuz kart 900 dolar olacak, ama bu fiyatı çekmek için adını tamamen yalan dolan bir şekilde 4080 koyacaksın. Üstüne de güç tüketimi konusunda gayet tatsız bir görüntü sunuyorsun. DLSS 3.0 konusunda yan çizmişsin. Onun da ne kadar sürede adam gibi kullanılacağını şimdilik bilemiyoruz. Netice olarak Nvidia'nın bu tanıtımı tatmin etmenin çok uzağındaydı. Ürünler güzel olabilir. Ama incelemeler gelene kadar onu da pek bilemeyeceğiz. Pandemi sonrası işler normale döner, fiyatlar olması gereken yere iner diye bekleyenler ise sağlam kazık yemiş oldu. Eylül 24, 2022 mamad tarafından düzenlendi rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 24, 2022 Şunu da şimdi gördüm: https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/ DLSS 3.0 ile 4090'ın güç tüketimi belirgin şekilde düşmüş, fps ise feci artmış görünüyor. 4090'ın 3090ti'a attığı fark %62'den %178'e çıkmış. Güç tüketimi ise 100w'ın üzerinde azalmış. Benzer şekilde DLSS 2 de 3090ti'ın güç tüketimini azaltıyor. Ama DLSS 3.0'ın getirisi inanılmaz. Tabi bu verilerin seçmece sonuçlar olduğunu düşünmemek mümkün değil. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 25, 2022 rammstein, MilesTeg and epi beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 25, 2022 nvidia'nın bu şımarıklığına karşı amd'ye sağlam koz geçti aslında, en tepe modeli 4090 gibi performans verse ve 1200$ gibi bir fiyattan satılsa, satışları patlar gider. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 25, 2022 6 hours ago, stardust said: Aynen boyle olup ustune "sunu sunu ve sunu da rakip kart kadar iyi yapamiyor aslinda" oldugunda yine de butun kufru nvidia yiyor rammstein beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 28, 2022 DLSS 3 icin Digital Foundry videosu cikmis: https://www.youtube.com/watch?v=6pV93XhiC1Y Izleyeyim daha yazarim. Izlemeden yazayim: 1. Millet videolarin gazina gelip ara kare yaklasimina .ok atmadan ben soyleyeyim, bu teknoloji kalici olacak, digerleri de benzer cozumlerle gelecek. 5:30'da gordugun gibi sagdaki cok daha akici gozukecek. Konsolda 60fps calisacak sekilde tasarlanan, onun uzerinde CPU limitine takilacak sekilde koklenmis ayarlari olan oyunu 120fps'ye cekip oynamanin bu tarz ara kareler kullanmaktan baska bir yolu olmayacak. "Film goruntusu seven elitiz, 24 kare olsun aman soap opera pembe dizi goruntusune donmesin, kapat o interpolation'i" dersin ama her barda/restoranda asilan TV'ye, her tekno markette gosterilen demo videolarina dikkat et, hepsi yuksek fps calisacak sekilde ayarlaniyor. Goz akiciligi seviyor. 2. "120fps'de her kare 8 milisaniyede ciziliyor. Ben 16 milisaniye once mouse'umu kipirdaymistim, son kareye onu yansitmayacak, demek ki bu yaklasimla latency iyilesmemis" diye dusunmeyin. VR'da kullandiklari reprojection yontemleri gibi gelisecegi icin onu da goruntuye yansitacaktir. Son anda mouse'tan gelen sinyale gore ara kareye 1ms'de isleme cekip zaten az olacak goruntu degisimine cok yakin bir sey olusturur. VR'da kafamizi hizli cevirdigimizde GPU yeni goruntuyu cizemezse goruntu onumuzde takilip bizi kusturmasin diye icat ettiler bu yontemleri, simdi AI ile hizlandiriyorlar. TV'de 2D goruntu oldugu icin ara kareleri tahminen ciziyorlar, eller gibi vucudun geri kalanina gore hizli hareket eden yerlerde bozulmalar oluyor (sony digerlerinden daha iyi). Burada 3D goruntu oldugu icin, sahnede ne oldugunu, derinlik bilgisini vs GPU bildigi icin o bozulmalar olmadan cok daha iyi is cikarilmasi mumkun. Ray tracing'i ilk gordugumuzde bir kismimizin gozune "ya TV kontrast ayari gibi bir sey" gibi geldi. Bu da "ya TV'lerdeki motion ayari gibi" diye yerilecek. Ama cok yermeyin, RT'nin AMD'ye ve konsollara da gelmesi gibi, bunu da hepsi yapacak. Aklin yolu bir. wazzap beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 28, 2022 (düzenlendi) Turing mimarisi ile tensor corelara kalıcı olarak mimarisinde yer veren Nvidia'nın bunu ne şekillerde kullanacağını merak ediyordum. Adamlar sonunda cidden feci fark yaratacak yolu buldular. Gerçi beklenmeyen bir şey değildi. Ama işlemci limitinin etkisini azaltması da yabana atılır gibi değil. Diğer taraftan bu tensor core mevzusunun ucu açık. Çok acayip yerlere gidebilir iş. Rakiplerden elle tutulur bir yanıt gelmezse, Nvidia çok zengin bir damar yakaladı demektir. Gerçekten oyuna göre 3-4 kat performans artışı getirirse ve bunu akıcılıktaki kaliteyi artırarak yaparsa, cidden çarşı karışır. Gerçi karışmıştı zaten. Ray tracing'i erkenden sunup Intel'i oltaya getirdi. Tensor core karşısında da Amd çaresiz kaldı. Nvidia eğer bu nesilde bu işi düzgün yapabildiğini gösterirse, bir sonraki nesilde enerji verimliliğine ve eldeki özelliklerin daha gelişmiş halde sunulmasına yönelik çalışsa yeter gibi görünüyor. Performans söylenen noktaya gelirse, 4k'da 60+ fps ile full ray tracing'e baya yaklaşımış oluruz. 2028'e kalmadan da native ray trace edilmiş sahneler görmemiz mümkün olabilir. Eylül 29, 2022 mamad tarafından düzenlendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 28, 2022 (düzenlendi) RT'yi Nvidia icat etmedi , gerçek zamanlı RT'nin günün birinde oyunlara geleceğini herkes biliyordu. Ne zaman olacağı tam belli değildi sadece. Nvidia yaptı sonra ötekileri de yapmak zorunda kaldı diye bir şey yok. Donanımlar gerçek zamanlı rt yapabilecek güce ve yazılımlar bunu yapabilcek olgunluğa ulaşınca meydana geldi. Akp'nin "interneti biz getirdik" demesi gibi bir şey bu. Bu oyunlarla taktiklerle görüntü iyileştirme, çözünürlük arttırma, kare sayısı arttırma gibi şeyleri de Nvidia icat etmedi. İnsanoğlu bilgisayar ile kağıt üstüne / ekran üstüne çizgi çizdirmeye çalıştığı gün bunların temelleri atıldı. Eylül 28, 2022 Whooosh tarafından düzenlendi jackjoker beğendi Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş
Mesaj tarihi: Eylül 28, 2022 Gercek zamanli RT yapmak icin gereken algoritmalar ve bu algoritmalari en hizli calistiracak ozel donanim birimlerinin tasarimlarini vs arge ile nvidia ilk buldu ve kullanima sundu. Digerleri pasa pasa takip etti. Yani adamlara teknoloji liderligi yaptilar dememek icin "ilk Doom'da (1993) da bir cesit ray casting yapiliyordu" falan diye kivirabiliriz isterseniz. Ama sacma olur. 3dfx'ten once de 3d vardi demek gibi bir sey olur. Su denilebilir: zamanla digerleri de yapacakti, nvidia sifirdan kesfetmedi, sadece ilk yapan oldu. Oyle tabi de, digerleri beceremedi, nvidia becerdi. Yaptiginda da "zamanla hepimiz buna gececegiz, digerleri de bunu yapacak" demek yerine "ya gereksiz zaten" diye .ok atildi. Simdi de ya kacinilmazdi zaten deniyor olmasi biraz tuhaf. Madem gereksizdi, niye kacinilmazdi diye bi sorgulamak lazim. Neyse. Bu mesajı paylaş Bu mesajın linki Sosyal ağlarda paylaş