epi

CHW
  • Mesaj sayısı

    3.019
  • Üyelik tarihi

  • Son ziyareti

  • Days Won

    74

Everything posted by epi

  1. Vay arkadas ya Bu surada dursun. Ileride bakar guleriz:
  2. 1.6-2x demistim. O arada olur. O arada olmasa digital foundry gibi inceleme videosu yayinlayanlar "kendi kaydettigimiz fps degerlerini veremiyoruz ama nvidia kendi videosunda vermis zaten" diye o degerleri videosuna koymaz. DLSS3 icin de nvidia 2-4x diyor, ben 2x dedim. Toplamda 150fps'den 300-600'e cikacak diyorum, bu aslinda mutevazi. Iyi bak, bi kusuru bulundu. Zil takip oynanir. Keske yine olsa Arada bir satir bulundu cevap verilebilecek. Performans, guc kullanimiyla ilgili bolumleri, yapay zekayi, butun mesaji pas gecti, buna atladi adam. Tam da bundan soz ediyorum. Hangi firma arada hata yapmiyor? nvidia'nin artilarini "RT'yi onlar bulmadi", "RT onemli degil yea" diye gecistirip 800W cekecekmis diye salladiklarinda sazan gibi atlamak ve arada bir eksi yakalandiginda 5 kaynak yapistirmak biraz tuhaf. Fanboylugu anladiginiz belli Apple icin de yillarca "sadece sekil yea" dedikten sonra M1'leri gorup sus pus olan arkadaslar gibi. Bir gun de hakkini teslim edin bu firmalarin. AMD de MCM ile one gecsin, hakkini teslim edelim. Yillar oncesinden yazdik MCM, APU ve 3D hafiza yatirimlarini burada. R300 (Radeon 9700 Pro) yapip Geforce FX 5800'i tokatladilar, hakkini teslim ettik. (nvidia bozdu ya... Cok bozdu. Oyle boyle bozmadi )
  3. 30x0 serisinden biliyoruz ki: “Teh best” isteyen icin 450W’ta peak performance’i yuksek tutuyorlar. 300W’a limitleyince performans kaybi cok az oluyor. Datacenter/Mining modellerini oyle hazirliyorlar. Mining yapanlar (veya senin gibi undervolt yapanlar) zaten biliyor bunu. 100W’ta calistirinca yari performansi sunmaya devam edip laptop’a giriyor. 4’te bire dusmuyor. Kart 100W olarak gelse “o.c. nvidia kismis” diye overclock rehberi paylasilirdi. Al adam yapmis iste. Zirve performans istiyorsan parasini ver, ugrasma. Daha iyi fiyat/performans ve watt/performans istiyorsan alt model al, ugras. _____________ Her nesil ayni terane. Kart gelmeden “800-900W yok ebesinin watt’i” iddialari ucustu. Onceki neslin zirve karti ne kadar guc altinda calisacak kadar gelistirildiyse (isinmadan, yanmadan, peak performance) ayni sekilde calisiyor. 30x0 serisi gelmeden “soyle yaniyor, boyle patliyor” iddialari ucusmustu. Herkes pasa pasa aldi, kullandi. 30x0 serisi gelmeden “big navi gelecek, anasini belleyecek” iddialar ucusmustu. Gorduk big navi’yi. 20x0 serisi geldiginde herkes RT’ye .ok atti. Nvidia yapiyor. Rakip .ok atan videolar yapanlarla idare ediyor. Geriden takip ediyor. CPU’larda 5nm ile 10nm’yi zor yakaliyor, burada da daha yapay zeka treninin arkasindan yetisecek diye bekliyoruz. "Yapay zekayi nvidia kesfetmedi" _____________ Cok basit: nesilden nesle 2x koymus. DLSS ile 2x daha koyma imkani vermis. Bunu ayni guc kalibi icinde yapmis. “Ayni gucu cekip 150fps degil sadece 300-600fps mi veriyor” diyorsak bizde bir sikinti var.
  4. Araba suremeyecek yasta cocuklarin yaris oyunu oynadiklari ekran kartlari araba fiyatina geldi. Sorun o. Giris seviyesi eskinin prestij kartlarindan pahali. Guc tuketimi konusunda da 450W "unleashed" cihazi 100W'a sinirlayip laptop'a koysalar yine guzel performans veriyor. Isteyene 450W karti yine satsinlar, sorun degil, mimari 100W'ta performansinin 4te birine dusmuyor. Fakat Apple kadar basarili degil, laptopi duvara baglamadiginda performans yariya dusuyor. Cep telefonu bile her tarzda oyunu calistiriyorken, PC'de calisan her oyun konsolda da calisiyorken bunlar iyice hobi makinesi oldu, pahalandi, egzotiklesti. Bir yerden sonra "karbon emisyonu" falan diye bunlara limitlemeler gelecek. O gune kadar gucu yukseltebilecekleri kadar yukseltip mumkun olan en yuksek performansi elde etme pesinde olurlar. O gun geldiginde kaynaklarini "guc ihtiyacini %50 dusuren ama performansi sadece %10 dusuren mimari" argesine harcarlar. Simdilik hazir serbestken kaynaklarini baska konularda one gecmeye harciyor.
  5. RT'yi tabi ki nvidia bulmadi da "nvidia iyi is yapti, herkesten once bunu gercek zamanli becerdi, millet gereksiz falan diye camur atti ama basariydi" dememek icin "ya bu teknoloji onceden vardi" demek cok anlamli degil. Herkesten once ekran kartlarina getirmeyi basardilar. Dedigim gibi, 3d oyunlar ilk kez mumkun oldugunda "3d'yi 3dfx bulmadi" demek gibi bir sey. "RT'yi nvidia buldu" yazmadik ama once RT gereksiz diye laf etseler de de gelecegin orada oldugunu gorurler diye yatirimini yapip sonuc almayi nvidia basardi. Insanlar yazmadigim seylere cevap yazmaya baslayinca (RT'yi nvidia buldu denmis gibi cevap yazmak, baslatan baskasi) "nvidia iyi is yapti, herkesten once bunu gercek zamanli becerdi, millet gereksiz falan diye camur atti ama basariydi" dememek icin her seyi yazacak kadar nvidia'ya kizdiklarini anliyoruz. Pahali tabi. 1.6-2x hizli olur derken ek teknikle ustune 2x daha koyabiliyorsunuz diye secenek sunmuslar, millet nesilden nesle az gelisme oluyor diye kufrediyordu, simdi ise kimse "vay be" demiyor. "Alamayacagim ama guzel". Sunu soylemek bu kadar zor mu? Ben de alamayacagim ama guzel. Zamanla bize de gelir.
  6. Henuz izlemedim ama sunu soyleyeyim: artik farkli sogutmalari karsilastirirken sadece dereceyi degil, performansi da yayinlasalar iyi olur. AMD, Intel, nvidia… hepsi icin gecerli. “Iste kutu islemcisiyle minik kasada da erimiyor” peki ama ne kadar isindigini takip edip boost saat hizlarini ona gore ayarlayan islemci ayni performansi verebiliyor mu? Dedigim gibi, diger markalar icin de gecerli.
  7. Bu wireless PC VR icin Quest 2’ye saglam bir alternatif anlasilan: https://youtu.be/mWUrfvhlzZY edit: https://youtu.be/f-0KNZpD15c Yine de Valve’in kumandalarla ne yapacagini gormek icin beklenir. Pancake lens’le ince tasarim, headstrap guzel, pil arkada oldugu icin agirlik dengeli paylastirilmis, hafif, ekranlar 2K x 2K, kablosuz baglanti ile PCVR. Yeni nesilden bekledigim her sey tuttu. Valve’da eye tracking olursa ve wireless VR icin foveated rendering mumkun olursa cok buyuk arti olur. Full parmak takibi de olursa super olur. edit2: Pico4’un Quest 2’ye gore eksisi yazilimda olabilir. VR’da 90fps’yi tutturamayinca makine 45’e cekip ara kareleri algoritmaya hesaplatiyor. O algoritma Oculus’ta daha basarili olabilir. Virtual Desktop iki sette de kendi algoritmasini kullanmiyorsa fark burada olabilir. Ayni sekilde takip kalitesinde de fark olabilir. Yoksa PCVR icin Pico 4 daha iyi bir secim.
  8. Gerek yok, kendimiz yapariz. Ya da birileri yapar, indirir oynariz. PC dedigin bu iste: https://www.youtube.com/watch?v=Gr6VOrKiXwU
  9. 265 var nvidia’da. AV1 geliyor. 265 kablosuz VR’da kullaniliyor. 265’le gecikmeyi sifira yakin tutarak yuksek kalitede videoyu gercek zamanli encode etmek mumkun. Boyle local streaming yaparak kablosuz goruntu iletmede kullaniliyor. AV1 ile gecikme artmadan kaliteyi arttirmak mumkun olursa Virtual Desktop’in programcisi destek verir. O yazilima gelmezse gecikme acisindan bir sikinti oldugunu anlariz (ya AV1’in temelinde, ya da mevcut uygulamasinda). Fakat goruntunun aktarildigi cihazin da bunu gercek zamanli cozebilmesi lazim. Quest 2’deki Qualcomm SOC’da AV1 decoder’i yok. Steam Deck ile oturdugum yerde canavar PC’den stream edeyim, el kadar cihazda RT acik Cyberpunk oynayayim deseniz mumkun. AV1 ile kaliteyi arttirayim deseniz herhalde yine decode asamasinda takilirsiniz. Yani streamer’a iyi ama gamer’a henuz faydasi yok.
  10. Gercek zamanli RT yapmak icin gereken algoritmalar ve bu algoritmalari en hizli calistiracak ozel donanim birimlerinin tasarimlarini vs arge ile nvidia ilk buldu ve kullanima sundu. Digerleri pasa pasa takip etti. Yani adamlara teknoloji liderligi yaptilar dememek icin "ilk Doom'da (1993) da bir cesit ray casting yapiliyordu" falan diye kivirabiliriz isterseniz. Ama sacma olur. 3dfx'ten once de 3d vardi demek gibi bir sey olur. Su denilebilir: zamanla digerleri de yapacakti, nvidia sifirdan kesfetmedi, sadece ilk yapan oldu. Oyle tabi de, digerleri beceremedi, nvidia becerdi. Yaptiginda da "zamanla hepimiz buna gececegiz, digerleri de bunu yapacak" demek yerine "ya gereksiz zaten" diye .ok atildi. Simdi de ya kacinilmazdi zaten deniyor olmasi biraz tuhaf. Madem gereksizdi, niye kacinilmazdi diye bi sorgulamak lazim. Neyse.
  11. DLSS 3 icin Digital Foundry videosu cikmis: https://www.youtube.com/watch?v=6pV93XhiC1Y Izleyeyim daha yazarim. Izlemeden yazayim: 1. Millet videolarin gazina gelip ara kare yaklasimina .ok atmadan ben soyleyeyim, bu teknoloji kalici olacak, digerleri de benzer cozumlerle gelecek. 5:30'da gordugun gibi sagdaki cok daha akici gozukecek. Konsolda 60fps calisacak sekilde tasarlanan, onun uzerinde CPU limitine takilacak sekilde koklenmis ayarlari olan oyunu 120fps'ye cekip oynamanin bu tarz ara kareler kullanmaktan baska bir yolu olmayacak. "Film goruntusu seven elitiz, 24 kare olsun aman soap opera pembe dizi goruntusune donmesin, kapat o interpolation'i" dersin ama her barda/restoranda asilan TV'ye, her tekno markette gosterilen demo videolarina dikkat et, hepsi yuksek fps calisacak sekilde ayarlaniyor. Goz akiciligi seviyor. 2. "120fps'de her kare 8 milisaniyede ciziliyor. Ben 16 milisaniye once mouse'umu kipirdaymistim, son kareye onu yansitmayacak, demek ki bu yaklasimla latency iyilesmemis" diye dusunmeyin. VR'da kullandiklari reprojection yontemleri gibi gelisecegi icin onu da goruntuye yansitacaktir. Son anda mouse'tan gelen sinyale gore ara kareye 1ms'de isleme cekip zaten az olacak goruntu degisimine cok yakin bir sey olusturur. VR'da kafamizi hizli cevirdigimizde GPU yeni goruntuyu cizemezse goruntu onumuzde takilip bizi kusturmasin diye icat ettiler bu yontemleri, simdi AI ile hizlandiriyorlar. TV'de 2D goruntu oldugu icin ara kareleri tahminen ciziyorlar, eller gibi vucudun geri kalanina gore hizli hareket eden yerlerde bozulmalar oluyor (sony digerlerinden daha iyi). Burada 3D goruntu oldugu icin, sahnede ne oldugunu, derinlik bilgisini vs GPU bildigi icin o bozulmalar olmadan cok daha iyi is cikarilmasi mumkun. Ray tracing'i ilk gordugumuzde bir kismimizin gozune "ya TV kontrast ayari gibi bir sey" gibi geldi. Bu da "ya TV'lerdeki motion ayari gibi" diye yerilecek. Ama cok yermeyin, RT'nin AMD'ye ve konsollara da gelmesi gibi, bunu da hepsi yapacak. Aklin yolu bir.
  12. Oyle tabi de underdog alttan, oteki ustten... Oyle degilmis de biri underdog melekmis gibi yiyen bir kitle var, onlar daha cok tikliyor/like'liyor diye video yapan her influencer da "ya ben bu intel'in nvidianin anasini..." diye konuya giriyor, "biraz da biz .ikelim" diyor. Ortamtaki butun icerik bize kabariyor.
  13. 5000 serisinin 3D'sinde isi yukseliyor. 7000 serisinde yuksek performans icin islemci 95 dereceye kadar itiliyor, kasanizda sogutma kotuyse aldiginiz performans baskasina gore dusuk. 7000 serisine 3D hafiza caktiklarinda bakalim ne olacak. Isinma sebebiyle performans dizginlenmezse 13th gen'e iyi cevap olur. Yoksa Intel single thread performansinda, Amd multi thread performansinda onde olur. Paralellestirilemeyen, bir islemin yapilmasi icin digerinin sonucu beklenen durumlarda (cogu oyun) Intel one gecmis olur. Amd yeni islemcilerini Tayvan'da 5nm urettirtiriyor. Intel (yanlis bilmiyorsam) "Intel 7" diye isimlendirdigi 10nm uretim teknolojisi kullaniyor. Buna ragmen AMD'nin ciddi sekilde one gecmemesi, hatta Intel'in oyunlarda liderlik iddia edebilmesi iki seyle aciklanabilir: Ya beceriksizlik, ya da gonullu duopoly ("sen bazi oyunlarda onde ol, ben bazi oyunlarda, gel beraber .ikelim bunlari"). Ama butun kufru nvidia ve Intel yiyor.
  14. Pico 4 fiyat olarak Quest 2'ye yakin, bazi ozellikleri ise pahali Quest Pro'ya yakin: https://www.youtube.com/watch?v=OP-uXpo_zJc Pancake lens ile hafif ve ufak tasarim, 2x2Kx2K cozunurluk, RGB passthrough. $429. Isteyen Wifi Uzerinden wireless kullaniyor, isteyen $50 USB dongle ile wireless kullaniyor. Sahsen Valve'den ne gelecegini gormeden bir sey almak istemem ama bunun bu fiyata cikabilmesi yeni neslin bekledigimiz gibi olacaginin gostergesi.
  15. Single thread performansinda 13th gen iyi gozukuyor. AMD'nin sonuclari da boyle gelirse oyunlar icin iyi. Oyun motorlarinda hala paralellestirilemeyen gorevler sebebiyle single thread performansi onemli, sentetik CPU benchmarklari ve Blender testleri vs. bizi yaniltmasin. https://www.guru3d.com/news-story/core-i9-13900k-is-the-fastest-cpu-in-passmarks-single-thread-ranking.html Para harcamaya ve sonrasinda elektrik faturasina da para harcamaya razi olanlara bu kis CGI film kalitesini gercek zamanli veren makineler geliyor (Intel-nvidia). AMD yeni MCM tasarimlariyla "ayni parayi bize verin, ayni kaliteyi alin, elektrik faturaniz da daha dusuk olsun" demeyi becerirse guzel. Pek beklemiyorum. Yine sagi solu eksik olursa, yazilimda geride kalirsa firsat kacar (zira Intel-nvidia da nihayetinde MCM'ye gecer). Fakat dusuk guc gereksinimi olan sistemlerde (tasinabilirler, handheld, standalone VR vs) AMD kullanmanin artisi olabilir. nvidia/Intel o kadar kufur yedikten sonra AMD de anca guc kullanimini arttirarak ve cok isinarak (neredeyse) yetisebilirse uygun bir yerimizle gulmek gerekir.
  16. Son guncellemeden sonra performans sorunu goruyorsaniz NVIDIA GeForce Experience v3.26 BETA'ya guncellemek cozuyormus: https://www.guru3d.com/news-story/low-performance-after-windows-11-2022-update-here-is-a-solve.html
  17. Aynen boyle olup ustune "sunu sunu ve sunu da rakip kart kadar iyi yapamiyor aslinda" oldugunda yine de butun kufru nvidia yiyor
  18. 3090’de 8-10 fps calistirarak anca fikir sahibi olacagimiz, 3070’larda falan 3-5 fps belki calisacak, 1080Ti’da 1fps bile olmayacak ayarlari 4090 native 20fps calistiracak, DLSS ile 60fps verecek. Isteyen ayarlari dusuk tutar, DLSS’i kapatir, “öz hakiki kareler” ile oynar, yine rakip her karttan yuksek hizda calisir. Isteyen ayarlari kökler, DLSS’i acar, “vay umuna goyim” ayarlarda oynar, rakip her karttan guzel goruntu elde eder. Digital Foundry’nin incelemesi geldiginde “goruntu kalitesinde fark sifira yakin, hissedilir gecikme yok gibi” derlerse olmus bu deriz. Yoksa zamanla oturur. Onceki nesil uzerine yaklasik 2x native hiz artisi verip yaklasik 2x de yeni DLSS’den artis vermeyi basarmislarsa öper basima koyarim. Bir sonraki nesilde “sen bana 4K’da sabit 120fps ver, bunu gucun yettiginde native, yapamadiginda DLSS ile ver” modu da geldiginde konu kapanir. Bi “ibinelik” aranacaksa orada aranmali. O tarz bir mod teoride mumkun ama onu verseler bi sonraki karti nasil satacaklar, gsync’i nasil satacaklar? O yuzden onu rekabet zorlayana kadar gormeyiz. Rakibin de isine gelmedigi icin onlar ya yapmaz. Asil sorun o. Duopoly (ya da Intel ile 2+1) varken “rekabet” bir yere kadar. Bunlara “yazilim sadece” diye bakmamak lazim. O yazilima ozel donanimda calisan yazilim. AI islemlerini hizli gerceklestirmek icin ozel tasarlanmis islem birimlerinde calisiyor. Bir esik asilmadan, mesela “native goruntu isleyen birimlerle 60 fps goruntu cizebiliyoruz, AI birimlerimiz de onu saniyenin 1/240’sinde isleyerek bir sonraki kare tahminini ciziyor, saniyenin son 1/240’sinde de oyun motorundan gelen yeni durum verisiyle ona son bir duzeltme cekiyor” seviyesinde hizli islemi yapacak donanim olmadan bunu yazilimla gercek zamanli yapamazlar. Olur belki ama kalite duser (native ile arasindaki fark acilir). Bu sefer ‘buyuk navi geliyor” komplo teorisi video kanallariniz “iste bakin DLSS ne kadar cirkin” diye o goruntuleri paylasir. Asil derin ibineligi de isi gucu milletin sirtindan reklam geliri elde etmek olup sacma sapan icerik yaratan bu kanallarda aramak lazim. Cag dezenformasyon cagi. Bir avuc click icin. For a few clicks more. Sezar’in hakki Sezar’a.
  19. GeForce 2 Ultra ciktiktan hemen sonra GeForce 3 cikmisti. Eskiden beri “en hizlisini, en iyisini hemen istiyorum” diyenin masrafi da ona gore oluyor. 30x0 bir onceki mimari ama 2 yil oncesinin kartlari. GeForce 2 Ultra ile GeForce 3 arasinda bir kac ay vardi.
  20. Evrene dilek yolluyorsak ben de her oyuna DLSS injector istirem.
  21. 40x0 serisi 4nm, 30x0 serisi 8nm. Saat hizi daha yuksek Yapay zeka hesaplamalari icin kullanilan tensor core miktari daha fazla. Yapilan islemlerin sirasinin cizelgesini dinamik olarak hazirlayarak ciddi performans artisi saglaniyor. (Shader Execution Reordering, SER) Bu sekilde kulanilacagi bilinen yeni mimarinin donanimi tasarim sirasinda buna gore optimize edilerek hazirlanmis. Sen nvidia olsan ve yeni ekran karti satman gerekiyor olsa, AMD ve Intel gibi devlerin henuz yetisemedigi, yapamadigi, emsali olmayan yeni teknoloji gelistiriyor olsan, elindeki limitli kaynaklarini yeni teknolojiyi bu kartta calistirmak icin mi harcarsin yoksa "2 yil once piyasaya gelmis kartlarda da calismayacaksa ben bu teknolojiyi gelistirmem arkadas" mi dersin? Tabi ki yeni teknolojiyi ilk olarak en yuksek islem gucu olan donanimda hazirlayacaklar. nvidia teknolojiyi gelistiriyor. Rekabette one geciyor. Rakipler alt modellerde rekabeti zorlar da kaynaklarini oraya harcamasi gerekirse o ozellikler alt modellere de geliyor. Yoksa kaynaklarini bir sonraki mimariye ayiriyor Kimsenin sinirsiz kaynaklari yok. Basarili olmak icin yapilmasi gereken belli. Onu yapiyor. 1. AMD'den MCM geldiginde GPU icindeki iletisimde gecikmelerden oturu performans kaybi buyuk olmazsa, 2. Bu sekilde bir suru ufak GPU'yu uc uca yapistirip nihayet nvidia'ya rakip olabilir hale gelirlerse 3. "Onlarin yapay olarak urettigi kareleri biz gercekten uretiyoruz ve iste fark bu videoda gorulebilir" diye onumuze koyarlarsa ve gercekten gozle gorulebilir bir fark olursa Nihayet biraz rekabet olur. Ama o durumda bile nvidia'nin kaynaklarini ust seviyeye aktarmasi makul. Gecmisine bakilirsa AMD'nin bunu becermesi zaten zor, anca yetismeye calisiyorlar, Intel henuz onu da yapamiyor. Ayrica nvidia'nin yaklasimi CPU darbogaz yarattiginda da 2x kare hizi saglayabiliyor, AMD'nin "biz o kareleri gercekten uretiyoruz" demesi teknik olarak hic bir zaman mumkun olmayabilir. MCM yaklasiminin "iste GPU'nun su birimleri su chipte, bu yeni AI birimleri bu chipte" mertebesine gelip giris seviyesi kartlarda da ise yaramasi icin iki sey gerekiyor. 1. Yine MCM'de GPU icindeki iletisimde gecikmelerden oturu performans kaybi buyuk olmamasi lazim, 2. AMD'nin bu tarz yapay zekaya ozel birimleri tasarlamayi ogrenmesi lazim. Bu ikincisi icin uzmanlasan bir sirketi satin aldilar ama bu nesilde meyvesini gormemiz biraz zor olabilir. Neticede nvidia yapmasi gerekeni yapiyor. 1. 30x0 serisinde rakipden geri uretim teknolojisi kullanmasina ragmen rakibi yakalayacak sekilde mimarisini gelistirdi. 2. Ayni sekilde sogutmasini ve yuksek guc kullanimi altinda yanmayan ekran karti tasarimini gelistirdi. 3. Universitelerle white paper'lar yazarak AI uzerinde calisti, algoritmalarini rafine etti, darbogazlari tespit edip mimariyi rafine etti ve gorevlerini dinamik olarak schedule edecek mantigi hazirladi. 4. 40x0 serisinde bu avantajlarin ustune 8nm'den 4nm'e gecerek daha cok birim ekledi, daha yuksek saat hizina cikti. 5. Tek chip GPU tasarimin zirvesi donanimda yeni nesil yazilimlarini tasarliyor. Yapabildiklerinin sinemada para verip izledigimiz CGI Disney/Pixar filmlerinden pek farki kalmadi: https://www.youtube.com/watch?v=AsykNkUMoNU Biz biraz fakirik, hangi karti ne zaman elden cikarsak da yeni gelen kartin hangi fiyat seviyesinde olanini alsak diye bizim de kafa yormamiz gerekiyor ama yine de her zaman yetisemiyoruz, o ayri.
  22. TNT’den bu yana guc gereksiniminin artmadigi bir nesil oldu mu? 3090Ti’lar bundan cok cekiyor. Yeni kartlar ayni miktar guc tuketerek 2x uzeri performans veriyor. Istenirse 4080 alinir, daha az guc cekerek ayni performansi verir. Bence duyurulan hic bir seyde sikinti yok. Bekledigimden de iyi kagit ustunde. Sikinti surada: 1. Bu fiyata bulunacak mi? 2. Bulunacak mi? Onda da soyle bir umudum var: ETH mining bittigi icin, enerji fiyatlari yuksek ama kripto fiyatlari dusuk oldugu icin bu sefer GPU talebi dusecek ve hatta 3080/3090’lar ikinci elde uygun bulunabilecek. Oyle olunca gelirinin/kazancinin iyice cakilip hissesinin beter dusmemesi icin nvidia bu kartlari bu fiyatlardan bulunur kilmak zorunda kalacak.
  23. Sirketlerden gelen bilgiler dogruysa, RTX 4090 ve PSVR2 (eye tracking ve foveated rendering) bekledigim kadar iyi cikti. PC'de bir araya getiren olursa onceki nesilden 10x performansli VR makinesi kurmus olacak. Goren herkesin "oha bu kadarini beklemiyordum" diyecegi kalite mumkun olur.
  24. Yapay zeka ile ara kareleri hesaplarlar tahmini tuttu. Sunumda yapay zekaya, simulasyona yuklenirler tahmini tuttu. 4090 TSMC 4nm. Fiyat da cilgin gozukmuyor ($1,599). Yok 800W olacak, yok bilmemne iddialari da tutmadi. Ayni guc kullaniminda 2x performans tahmini tuttu. Canavar gibi kart. Daha ne olsun? https://www.youtube.com/watch?v=Uo8rs5YfIYY Guzel bir tech demo da gorelim diyordum. RacerX "next-gen" olmus. https://youtu.be/AsykNkUMoNU DLSS3 ile ara kareleri hesaplayarak Flight Sim gibi CPU limitli oyunlarda da 2-4x performans saglayabiliyoruz dedikleri icin aslinda DLSS3'un calisacagi her oyun bu kartin tech demosu oldu. https://youtu.be/spq0jSWRCqI PS: Daha gelmeden "gidise bakarsak su teknolojilere sahip olabilir" diyen var. Daha gelmeden "800W, $2500, 6 slot, AMD Big Navi bunu yer" diyen var. Ikincisi daha cok izleniyor. Birak spekulatif dandik adamlari, Linus gibi sinirlarini bilenler bile Apple'in nvidia'nin ustune .icinca daha cok izlendigini biliyor. Ray tracing ve AI ne gerek? Trololo...