Masamune 184 Opublikowano 18 godzin temu Opublikowano 18 godzin temu 10 hours ago, Square said: Całkowicie osobny HW poprawiłby spadek klatek przy korzystaniu z PSSR? Myślę , że jest taka szansa. Dedykowana jednostka mogłaby być szybsza w wykonywaniu zadań ML, i gdyby miała wystarczająco dużo szybkiej pamięci mogłaby dawać lepsze efekty, w tej chwili PSSR dzieli obraz na części i później składa wszystko w całość. GPU miałby wtedy więcej mocy i czasu na swoje zadania, dzięki czemu wiedzielibyśmy lepszą grafikę bądź więcej FPS. Cytuj
ASX 14 718 Opublikowano 18 godzin temu Opublikowano 18 godzin temu Poprawcie mnie bo mogę się mylić, ale chyba dokładnie w ten sposób działa to w nowych kartach Nvidii, które mają dedykowane jednostki odpowiedzialne za upscaling dzięki temu włączenie DLSS nie odbija się kosztem wydajności. Tutaj pewnie ze względu na to że Playstation 5 korzysta z układów opracowanych przez AMD i zmodyfikowanych pod własne potrzeby, nie było takiej możliwości. Cytuj
Antihero_ 38 Opublikowano 18 godzin temu Opublikowano 18 godzin temu 11 godzin temu, Square napisał(a): Całkowicie osobny HW poprawiłby spadek klatek przy korzystaniu z PSSR? Żeby nie było - to ja tutaj już tylko strzelam, bo jakimś specem od hardware'u to nie jestem. IMO raczej osobny HW dedykowany ficzerom związanym z ML (upscaling, framegen, raytracing denoising itd.) to raczej nie ma sensu - generalnie i tak upscaling jest częścią procesu tworzenia pojedynczej klatki, więc wydzielanie tego do osobnego układu raczej nic nie zmieni. Prędzej mocniejsze bebechy i "wincyj rdzyniuf". Jeśli już miałoby to być wydzielone do osobnego układu, to IMO w przypadku, gdyby to wiązało się ze znacznym rozrostem fizycznego rozmiaru karty graficznej (co w sumie jest wyraźnie widoczne, jak się zestawi konsole z aktualnej generacji z poprzedniej). Albo jak w trakcie researchu im wyjdzie, że faktycznie lepiej będzie posiadać osobne NPU niż dostosowywać rdzenie do poszczególnego zbioru zadań. xD Ale ja bazuje to stwierdzenie na RTX-ach, które same w sobie mogą funkcjonować jako NPU. 9 godzin temu, Bzduras napisał(a): To w ogóle jest jakiś spadek klatek przy korzystaniu z PSSR? Cały sens upscalingu to lepszy klatkaż, bo gra działa w niższej rozdzielczości, a skalowaniem zajmują się odpowiednie układy. Jeśli używanie upscalera powoduje spadki to znaczy, że nie robi on dobrze swojej roboty. Pytanie czy przy przełączeniu na PSSR przypadkiem nie odpalają się jakieś dodatkowe bajery graficzne, które wpływają na finalny czas tworzenia klatki. Bo równie dobrze ktoś mógł z tym przeholować i tym samym zwiększyć czas na wyprodukowanie klatki niż [1 sekunda / docelowa liczba FPS]. PSSR jest wolniejsze od DLSS (o ile dobrze pamiętam, ~2 ms? nie mogę znaleźć konkretnej tabelki z porównaniami, ofc mocno generalizując - dla porównania RTX 4XXX ogarniają temat w ~1 ms chyba?), ale chyba nie aż tak, żeby taką znaczącą różnicę robiło samo przez siebie. 27 minut temu, ASX napisał(a): Poprawcie mnie bo mogę się mylić, ale chyba dokładnie w ten sposób działa to w nowych kartach Nvidii, które mają dedykowane jednostki odpowiedzialne za upscaling dzięki temu włączenie DLSS nie odbija się kosztem wydajności. Tutaj pewnie ze względu na to że Playstation 5 korzysta z układów opracowanych przez AMD i zmodyfikowanych pod własne potrzeby, nie było takiej możliwości. No tak, tensor core'y. Z tym, że one są ogólnie dedykowane pod ML - nie ograniczają się do konkretnego przypadku tak jak PS5 Pro, no i oczywiście w tym przypadku "ogólnie" nie oznacza gorsze. W PS5 Pro core'y dostosowywali pod konkretne kalkulacje związane z PSSR (czyli te lekkie konwolucyjne sieci neuronowe). Cytuj
Bzduras 12 778 Opublikowano 18 godzin temu Opublikowano 18 godzin temu Ale opóźnienie renderowania z tego co wiem nie ma wpływu na stabilność frameratu. To nie tak, że odpalasz upscaler i nagle masz klatkaż w dół oraz niestabilny framepacing, bo on akurat działa sobie w tle, wręcz przeciwnie - od pierwszej iteracji DLSS w FFXV dawało to przyrost klatek. Dlatego zdziwiłem się, że w ogóle jest mowa o spadku klatek po włączeniu PSSR. 5 minut temu, Antihero_ napisał(a): Pytanie czy przy przełączeniu na PSSR przypadkiem nie odpalają się jakieś dodatkowe bajery graficzne, które wpływają na finalny czas tworzenia klatki. W to już bardziej jestem w stanie uwierzyć. Cytuj
Emet 1 106 Opublikowano 17 godzin temu Opublikowano 17 godzin temu 1 minutę temu, Bzduras napisał(a): [...] od pierwszej iteracji DLSS w FFXV dawało to przyrost klatek. Dlatego zdziwiłem się, że w ogóle jest mowa o spadku klatek po włączeniu PSSR. To nie tak... Przy 60fps wyrenderowanie 1 pełnej klatki to w przybliżeniu 16,7 ms. Załóżmy, że budżet na całą grafikę przy np. 1440p to ok 15ms, więc mamy lekką górkę (60fps +). Teraz stosujemy np. TSR aby podbić 1440p do 4K (2160p), które kosztuje mniej niż PSSR, załóżmy, że 1ms. Daje to 16ms na końcową klatkę w rekonstruowanym 4K, czyli wciąż 60fps z małym zapasem (ale mniejszym niż natywne 1440p). Jeśli TSR zastąpimy przez PSSR które "kosztuje" 2ms, wtedy zamiast 16ms mamy 17ms dla 1 klatki zrekonstruowanego do 4K obrazu (cały czas mowa o bazowym średnim 15ms, bo ta wartość zawsze się waha zależnie od tego co dzieje się na ekranie). W efekcie nie mieścimy w 16,7ms, czyli średni framerate to już nie 60fps + ale 58-59fps. To, że DLSS, FSR, TSR czy PSSR daje zawsze więcej klatek bierze się z tego, że daje więcej niż renderowanie w natywnej docelowej rozdzielczości. Na przykładzie DLSS... Masz rozdzielczość 4K, w której gra chodzi np. w 30fps. Masz teraz "4K DLSS Quality", które chodzi np. w 45fps lub "4K DLSS Performance", które chodzi w 70fps (pomiędzy jeszcze jest Balanced). To nie jest magia, bo DLSS daje dodatkowe klatki przy 4K (pomijam frame-geny ale to inna sprawa), tylko właśnie to obniża rozdzielczość do np. 1440p i DLSS rekonstruuje znowu do 4K. I tu cały myk polega na tym, że wyrenderowanie klatki w natywnym 4K zajmie powiedzmy 33ms (co przełoży się na ok 30fps), a wyrenderowanie takiej grafiki np. w 1200p zajmie powiedzmy 14ms, co da 71fps ale rozdzielczości 1200p... i teraz dodajesz do tego DLSS, który przyjmijmy kosztuje 1,5 ms co daje 15,5ms czyli już nie 71fps ale 61fps, czyli mniej niż bez DLSS... ale w zamian za to mamy znacznie lepszą jakość ostatecznie widocznego obrazu (zamiast 1200p mamy coś bardziej przypominające natywne 4K, przy koszcie wyrenderowania znacznie bliższym 1200p niż faktycznego 4K). 4 Cytuj
Bzduras 12 778 Opublikowano 17 godzin temu Opublikowano 17 godzin temu Czyli PSSR jest za ciężkie na sprzęt/na tyle niedopracowane, że ten koszt jest zauważalny? Bo przecież Stellarek boży robi fiki miki i jest przykładem, że można wykorzystać tę technologię dobrze, mieć ciastko i zjeść ciastko. Nie wiem, z mojego doświadczenia od zawsze włączenie DLSS=kop do frameratu względem renderowania w natywnej rozdziałce. Cytuj
Ukukuki 7 143 Opublikowano 16 godzin temu Opublikowano 16 godzin temu 54 minuty temu, Bzduras napisał(a): Nie wiem, z mojego doświadczenia od zawsze włączenie DLSS=kop do frameratu względem renderowania w natywnej rozdziałce. Nie zawsze, DLSS je też VRAM i na kartach z 8GB w niektórych grach lepiej grać bez tego. Cytuj
Bzduras 12 778 Opublikowano 16 godzin temu Opublikowano 16 godzin temu Ty, no ja mam kartę z 8GB VRAM xd Mówisz o Frame Generation, to tak - w niektórych gierkach lepiej nie włączać, ale sam upscaling to jest instakorzysć w stabilności i ilości FPSów. Cytuj
Antihero_ 38 Opublikowano 16 godzin temu Opublikowano 16 godzin temu Tylko jeszcze z innej strony, jak gra popyla w wysokiej liczbie klatek na sekundę - załóżmy, że 120 FPS-ów (czyli 8,3 ms per klatka) - to oczywiście te dodatkowe milisekundy zżerane przez PSSR będą robić ogromną różnicę. Jeżeli GOW:R był odpalany w trybie HFR, to przeskoki w FPS-ach między TAA i PSSR mogły by być jeszcze wytłumaczalne (aczkolwiek jestem zaskoczony, że TAA nie jest zasobożerne). Przypadkiem Gran Turismo 7 też nie cierpi na ten sam problem w przypadku trybu z 120 Hz? Przynajmniej dopiero teraz do mnie dotarło, że tu może być mowa o trybie z >60 FPS. xd Cytuj
Square 8 747 Opublikowano 15 godzin temu Opublikowano 15 godzin temu Ogrywam teraz Ratcheta i performance lata w 90-100 klatkach (niby z PSSR), a tryb jakości to 30/40. Nie wiem czemu się nie skupili na jednym dojebanym trybie w 60. Cytuj
Mejm 15 379 Opublikowano 14 godzin temu Opublikowano 14 godzin temu A z forum pc laba sie smialiscie... 2 3 1 Cytuj
Soban 4 105 Opublikowano 14 godzin temu Opublikowano 14 godzin temu 12 minut temu, Mejm napisał(a): A z forum pc laba sie smialiscie... "You either die a hero or live long enough to see yourself become the villain" 2 Cytuj
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.