El Loco Chocko 2 029 Opublikowano 29 grudnia 2022 Opublikowano 29 grudnia 2022 On 12/27/2022 at 11:15 PM, Chewie said: Najlepiej jakaś używka 3080, trudno w ogóle cokolwiek znaleźć jeśli chodzi o nowe w sklepach. Dawać 4400 za taką kartę to chyba średnio. Jakiś czas temu były rx 6800xt za 3k, w takiej cenie to jeszcze można brać, wszystko uciągnie taka karta na luzie. Dzieki za wszelka pomoc. 6900XT jedzie do mnie. Z Nvidia to wiem co i jak, ale AMD to zupelnie nowosc dla mnie. Ogolnie taka historia jeszcze sie mi trafila niemila. Zamowilem Gigabyte B550 AORUS ELITE AX V2, ale sklep przyslal regularna wersje, bez wifi. Do tego opakowanie wg mnie chyba bylo otwierane. Zadnych plomb, czy folii. Choc juz nie pamietam czy ta zawsze bylo. Anyway, napisalem do nich ze zla plyta i do tego opakowanie nosilo slady otwierania. Jakis kolo odpisal, wyraznie niezadowolony zebym odeslal na moj koszt i postraszyl jeszcze jakimis protokolami odbioru i dodatkowych kosztow jakie moge poniesc. Mam nadzieje ze nie bedzie walkow zadnych Cytuj
easye 3 391 Opublikowano 29 grudnia 2022 Opublikowano 29 grudnia 2022 co to za sklep? Powodzenia z AMD, dla mnie to też była nowość - wytrzymałem 3 miesiące nim wróciłem do Nvidii Cytuj
El Loco Chocko 2 029 Opublikowano 29 grudnia 2022 Opublikowano 29 grudnia 2022 https://www.technextday.co.uk/ Quote co to za sklep? Powodzenia z AMD, dla mnie to też była nowość - wytrzymałem 3 miesiące nim wróciłem do Nvidii Co najbardziej przeszkadzalo? Cytuj
Chewie 180 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 3 godziny temu, El Loco Chocko napisał: Dzieki za wszelka pomoc. 6900XT jedzie do mnie. Z Nvidia to wiem co i jak, ale AMD to zupelnie nowosc dla mnie. Ogolnie taka historia jeszcze sie mi trafila niemila. Zamowilem Gigabyte B550 AORUS ELITE AX V2, ale sklep przyslal regularna wersje, bez wifi. Do tego opakowanie wg mnie chyba bylo otwierane. Zadnych plomb, czy folii. Choc juz nie pamietam czy ta zawsze bylo. Anyway, napisalem do nich ze zla plyta i do tego opakowanie nosilo slady otwierania. Jakis kolo odpisal, wyraznie niezadowolony zebym odeslal na moj koszt i postraszyl jeszcze jakimis protokolami odbioru i dodatkowych kosztow jakie moge poniesc. Mam nadzieje ze nie bedzie walkow zadnych jak ci wyslali zly produkt to powinien byc darmowy zwrot bez szczekania Cytuj
El Loco Chocko 2 029 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 No dokladnie tak samo myslalem. Po krotkiej wymianie maili, przeslali mi etykiete na paczke. Cytuj
Elitesse 382 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 Nie wiem czy dobrze o tym myślę, bo jestem zielony w kartach graficznych ale aby cieszyć się lepszym poziomem grafiki i płynności muszę wydać 2k-4k na kartę graficzną. Mimo to nie wykorzystam w pełni jej mocy, bo gry i tak są robione w taki sposób aby można było odpalić je na konsolach aktualnej generacji? Cytuj
Ukukuki 7 127 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 @Elitesse No nie do końca bo masz więcej klatek, wyższą rozdzielczość, więcej efektów i detali oraz RT, wyższą rozdzielczość tekstur, większy zasięg rysowania. Coś jak Ragnarok na PS4 a PS5 czy Halo na One albo XSX. Cytuj
Elitesse 382 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 3 minuty temu, Ukukuki napisał: @Elitesse No nie do końca bo masz więcej klatek, wyższą rozdzielczość, więcej efektów i detali oraz RT, wyższą rozdzielczość tekstur, większy zasięg rysowania. Mniej więcej rozumiem ale czy na te dodatkowe bajery zostaje wykorzystana cała "reszta" mocy z karty czy sporo tam jeszcze zostaje. Np. na tyle sporo, że mogłaby się odpalić na tym sprzęcie gra z nowszej generacji? W sensie, że na karcie śmigają gry na standardzie np. unreal 5 a jest tam jeszcze na tyle mocy aby odpalić produkcje w standardzie (jeszcze nie istniejącego) unreal 6? Czy moc tych nowych kart jest w pełni wykorzystana czy po prostu tego i tak się nie robi aby gry za bardzo nie odbiegały od tego co jest na konsolach? Cytuj
tjery 1 276 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 Teraz, Elitesse napisał: Mniej więcej rozumiem ale czy na te dodatkowe bajery zostaje wykorzystana cała "reszta" mocy z karty czy sporo tam jeszcze zostaje. Np. na tyle sporo, że mogłaby się odpalić na tym sprzęcie gra z nowszej generacji? W sensie, że na karcie śmigają gry na standardzie np. unreal 5 a jest tam jeszcze na tyle mocy aby odpalić produkcje w standardzie (jeszcze nie istniejącego) unreal 6? Czy moc tych nowych kart jest w pełni wykorzystana czy po prostu tego i tak się nie robi aby gry za bardzo nie odbiegały od tego co jest na konsolach? To nie tak Trochę nie rozumiesz pojęcia "mocy" karty, czyli jej wydajności. Dajmy na to taki Plague Tale Requiem w takiej samej rozdzielczości i ustawieniach chodzi na PS5/XSX w 30 fps, na 4090 w ponad 120. Więc 4090 w rasteryzacji (bo tu nie ma RT) jest 4xmocniejszy. Taki Dying Light 2 chodzi na PS5/XSX w 1080p bez RT i w sporo niższych ustawieniach w 60 fps, na 4090 masz 60 fps, ale w natywnym 4K z full RT na max ustawieniach. A RT z PC to zupełnie inna bajka niż pocięte na maxa RT znane z konsol. To nie działa tak jak piszesz, że na konsolach jest prawilna wersja, a na mocnym PC jest tylko "trochę" lepiej, działa to w drugą stronę, na konsolach gry są pocięte z rozdziałki, klatek, ustawień, RT, a taka karta jak 4090 pozwala zagrać w nie w pełnej krasie. I do tego wykorzystywana jest jej dodatkowa moc. Ogólnie w tym co napisałeś pewnie odnosiłeś się do mojego posta z poprzedniej strony, w którym pisałem, że gry robione są głównie pod konsole, a potem skalowane w górę do mocnych PC, ale w sumie można równie dobrze napisać, że gry robione są pod mocarne GPU (na których chodzą 4K120fps max ustawienia bez RT i 4K60fps max ustawienia z max RT), a potem są skalowane w dół do konsol i słabszych PC. Cytuj
El Loco Chocko 2 029 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 Dzieki chlopcy za pomoc. Wszystko ogarniete i jutro bedzie skladane Cytuj
Elitesse 382 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 23 minuty temu, tjery napisał: To nie tak Trochę nie rozumiesz pojęcia "mocy" karty, czyli jej wydajności. Dajmy na to taki Plague Tale Requiem w takiej samej rozdzielczości i ustawieniach chodzi na PS5/XSX w 30 fps, na 4090 w ponad 120. Więc 4090 w rasteryzacji (bo tu nie ma RT) jest 4xmocniejszy. Taki Dying Light 2 chodzi na PS5/XSX w 1080p bez RT i w sporo niższych ustawieniach w 60 fps, na 4090 masz 60 fps, ale w natywnym 4K z full RT na max ustawieniach. A RT z PC to zupełnie inna bajka niż pocięte na maxa RT znane z konsol. To nie działa tak jak piszesz, że na konsolach jest prawilna wersja, a na mocnym PC jest tylko "trochę" lepiej, działa to w drugą stronę, na konsolach gry są pocięte z rozdziałki, klatek, ustawień, RT, a taka karta jak 4090 pozwala zagrać w nie w pełnej krasie. I do tego wykorzystywana jest jej dodatkowa moc. Ogólnie w tym co napisałeś pewnie odnosiłeś się do mojego posta z poprzedniej strony, w którym pisałem, że gry robione są głównie pod konsole, a potem skalowane w górę do mocnych PC, ale w sumie można równie dobrze napisać, że gry robione są pod mocarne GPU (na których chodzą 4K120fps max ustawienia bez RT i 4K60fps max ustawienia z max RT), a potem są skalowane w dół do konsol i słabszych PC. Nie, dopiero co trafiłem do tego tematu Do zadania tego pytania, które chodziło mi od jakiegoś czasu po głowie, popchnął mnie najnowszy trailer ze Stalkera 2, który graficznie wyglądać ma jak Metro: exodus odpalone na PCcie. W 2020 r. po raz pierwszy kupiłem nextgena na premierę, który miał przynieść nową jakość i powiew świeżości w moim gierkowym życiu Wyższa rozdzielczość, większy klatkaż, lepsza grafika, ogólnie lepsza jakość i jeszcze jakieś RT, które akurat do niczego nie było mi potrzebne. Co się okazuje po tych dwóch latach? Konsole nadal obsługują tylko 30 klatek, grafika bez szału, RT to namiastka tego jak to powinno wyglądać i ciągle trzeba iść na jakieś kompromisy... Albo jakość albo płynność albo RT. Jakoś można do tego przywyknąć, 30 klatek mnie aż tak bardzo nie boli, a RT nie muszę włączać. Wydawało i w sumie dalej wydaje najtańszym sprzętem do grania, a wtedy konkretny komputer kosztował jeszcze z 10 tyś. i wydawało mi się, że to co oferuje to tylko trochę lepsza wersja, a karty są robione z tak dużym zapasem mocy, że zostaje ona niewykorzystana w grach. Wiem, że kopano nimi kryptowaluty i jedynie pod takim względzie myślałem o zakupie takiego sprzętu. Za konsolę dałem 2k z kawałkiem, a dobra karta graficzna kosztowała ze dwa razy tyle jak nie więcej. Dodatkowo z tego co pamiętam to konieczne były cykliczne wymiany kart graficznych, a na konsolach gry były tak pisane aby zawsze dobrze (hmm?) wyglądać i działać. Czy jeżeli gra chodzi w 120 klatkach, to jest to dostrzegalne przez ludzkie oko? Podobno max tego co jesteśmy w stanie zauważyć to 60hz więc nie wiem czy tutaj nie jest podobnie. Rozumiem, że tak może wyglądać proces produkcji gier ale zastanawiałem się czy konsole przez swoją moc nie ograniczają pola manewru producentom? Planując grę muszą przyjąć pewne założenia mocy aby można było coś spokojnie wyciąć do wersji konsolowych. Nie może to być jednak coś takiego aby były to dwie inne gry. Teraz porównałem moc teraflopów i taka konsola XSX ma mieć ich 25 kiedy geforce 3080 trochę więcej, bo 30. Z kolei ten 4090 aż 67! co jest chyba solidnym zapasem wystarczającym na lata. W takim układzie wydaje mi się, że trochę mogłem mieć racji, że specyfikacja konsol może ograniczać jakość produkowanych gierek. Rozumiem, że projektując grę na geforce 3080 można trochę zejść niżej z jakości aby uruchomić ją na XSX jednak chyba nie dałoby się zrobić takiego manewru przy projektowaniu gry na kartę 4090, bo to mogłoby oznaczać wydanie dwóch produkcji, które diametralnie musiałyby się od siebie różnić. Czy to jeszcze inaczej wygląda? Cytuj
tjery 1 276 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 (edytowane) 1 godzinę temu, Elitesse napisał: Teraz porównałem moc teraflopów i taka konsola XSX ma mieć ich 25 kiedy geforce 3080 trochę więcej, bo 30. Z kolei ten 4090 aż 67! Trochę namieszałeś z wartościami XSX ma 12 TFLOPS, RTX 3080 ma realnie (na podstawie wyników w grach) ponad 20 TFLOPS, a 4090 ma około 50 TFLOPS. To w rasteryzacji, bo z RT ta przewaga RTXów nad konsolami rośnie jeszcze kilkukrotnie. 1 godzinę temu, Elitesse napisał: Czy jeżeli gra chodzi w 120 klatkach, to jest to dostrzegalne przez ludzkie oko? Podobno max tego co jesteśmy w stanie zauważyć to 60hz więc nie wiem czy tutaj nie jest podobnie. Hehe, tu się nie będę rozpisywał, uwierz na słowo, że jest dostrzegalne i to bardzo dobrze pograsz trochę w 120 to powrót do 60 jest dość bolesny, bo się jednak okazuje, że to 60 wcale takie płynne nie jest. Ale prawdą jest, że do osiągnięcia wrażenia takiej idealnej płynności wystarczy koło 100 fps, potem różnice w samej płynności obrazu są niewielkie i dodatkowe klatki ponad 100fps głównie wpływają na czas rekcji, a nie na zwiększenie płynności. 1 godzinę temu, Elitesse napisał: projektowaniu gry na kartę 4090, bo to mogłoby oznaczać wydanie dwóch produkcji, które diametralnie musiałyby się od siebie różnić. Czy to jeszcze inaczej wygląda? Dokładnie tak, nie da się projektować gry pod np. 4090, która wyprzedza wydajnością najbardziej popularne sprzęty do grania (konsole i średnie PC) o kilometr, bo nie było by jak tego zeskalować w dół, żeby wciąż jako tako wyglądało i było grywalne. Dobrym przykładem jest CP2077, który był projektowany pod mocne PC i ledwo co działał na poprzedniej generacji konsol, a na obecnej generacji konsol różnica w grafice w stosunku do wersji na PC z RT jest ogromna. Edytowane 30 grudnia 2022 przez tjery 1 Cytuj
PiPoLiNiO 743 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 (edytowane) 18 godzin temu, El Loco Chocko napisał: Dzieki za wszelka pomoc. 6900XT jedzie do mnie. Z Nvidia to wiem co i jak, ale AMD to zupelnie nowosc dla mnie. Ogolnie taka historia jeszcze sie mi trafila niemila. Zamowilem Gigabyte B550 AORUS ELITE AX V2, ale sklep przyslal regularna wersje, bez wifi. Do tego opakowanie wg mnie chyba bylo otwierane. Zadnych plomb, czy folii. Choc juz nie pamietam czy ta zawsze bylo. Anyway, napisalem do nich ze zla plyta i do tego opakowanie nosilo slady otwierania. Jakis kolo odpisal, wyraznie niezadowolony zebym odeslal na moj koszt i postraszyl jeszcze jakimis protokolami odbioru i dodatkowych kosztow jakie moge poniesc. Mam nadzieje ze nie bedzie walkow zadnych Gigabyte tak ma. Płyta za 500 czy 3000 nie ma żadnych plomb i karton jest otwarty. Także nie przejmuj się. 52 minuty temu, tjery napisał: Trochę namieszałeś z wartościami XSX ma 12 TFLOPS, RTX 3080 ma realnie (na podstawie wyników w grach) ponad 20 TFLOPS, a 4090 ma około 50 TFLOPS. To w rasteryzacji, bo z RT ta przewaga RTXów nad konsolami rośnie jeszcze kilkukrotnie. 52 minuty temu, tjery napisał: Ale dla 4090 jest podawane 80 teraflopików przecież. 82.6 dokładnie Po OC nawet 100 przekracza https://www.telepolis.pl/tech/sprzet/geforce-rtx-4090-wydajnosc-tflops Edytowane 30 grudnia 2022 przez PiPoLiNiO Cytuj
łom 2 035 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 13 minut temu, PiPoLiNiO napisał: Ale dla 4090 jest podawane 80 teraflopików przecież. 82.6 dokładnie Nie patrz tylko na teraflopy bo to nie przekłada się 1:1 na wydajność. W grafice bez RT tabelka 'relative performance' z tej stronki NVIDIA GeForce RTX 4090 Specs | TechPowerUp GPU Database jest bardziej miarodajna. A jak odpalisz RT to GeForce będzie miał większą wydajność niż porównywalny Radeon, tak samo PS5 z GPU identycznym pod względem TFlops do 6600 XT jest w stanie odpalić SpiderMan w ~1200p, 60 FPSach i RT a ten Radeon będzie się pocił przy 30 FPS. Cytuj
tjery 1 276 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 (edytowane) 1 godzinę temu, PiPoLiNiO napisał: Ale dla 4090 jest podawane 80 teraflopików przecież. 82.6 dokładnie Po OC nawet 100 przekracza https://www.telepolis.pl/tech/sprzet/geforce-rtx-4090-wydajnosc-tflops Chodziło mi o przełożenie TFLOPS na rzeczywistą wydajność w grach. Godzinę temu, łom napisał: W grafice bez RT tabelka 'relative performance' z tej stronki NVIDIA GeForce RTX 4090 Specs | TechPowerUp GPU Database jest bardziej miarodajna. Chociaż akurat w przypadku 4090 trochę zakłamuje w drugą stronę (bo bierze pod uwagę rozdzielczość 1080p. w której 4090 ma bottlenecka na CPU). Z tabelki wynika, że 4090 jest niecałe 1,8 raza mocniejsze niż 3080, a w 4K (czyli jedynej sensownej rozdzielczości do porównywania takiej karty, bo nawet w 1440p ma bottlenecka) jest ponad 2x mocniejsza (w zależności od testów nawet do 2,2x). Godzinę temu, łom napisał: tak samo PS5 z GPU identycznym pod względem TFlops do 6600 XT jest w stanie odpalić SpiderMan w ~1200p, 60 FPSach i RT a ten Radeon będzie się pocił przy 30 FPS. Aż niemożliwe z tym Radeonem. Na ustawieniach takich samych jak na PS5 w trybie performance RT (a nawet wyższych, bo w stałej rozdziałce 1440p) RTX 2060super ma na luzie +60 fps (na Times Square 76 fps). A 2060super jest jakieś 20% słabszy niż 6600XT. I o ile da się zrozumieć czemu na karcie słabszej w rasterze niż PS5, czyli RTX 2060s gra chodzi lepiej, bo to karta Nvidii z o wiele lepszym RT i tym nadrabia, tak skąd taka przepaść pomiędzy PS5 a Radeonem skoro w PS5 siedzi karta AMD i wydajność w RT jest raczej porównywalna? Godzinę temu, łom napisał: A jak odpalisz RT to GeForce będzie miał większą wydajność niż porównywalny Radeon Co do RT to większa wydajność to bardzo delikatnie powiedziane AMD z RT w tej generacji dogoniło poprzednią generację Nvidii. Edytowane 30 grudnia 2022 przez tjery Cytuj
PiPoLiNiO 743 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 (edytowane) 8 minut temu, tjery napisał: Co do RT to większa wydajność to bardzo delikatnie powiedziane AMD z RT w tej generacji dogoniło poprzednią generację Nvidii. A w obecnej Nvidia podwoiła wydajność Edytowane 30 grudnia 2022 przez PiPoLiNiO Cytuj
Elitesse 382 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 1 godzinę temu, tjery napisał: Trochę namieszałeś z wartościami XSX ma 12 TFLOPS, RTX 3080 ma realnie (na podstawie wyników w grach) ponad 20 TFLOPS, a 4090 ma około 50 TFLOPS. To w rasteryzacji, bo z RT ta przewaga RTXów nad konsolami rośnie jeszcze kilkukrotnie. To był szybki resarch na google i nawet nie wchodziłem na strony tylko przepisałem, to co się pojawiło. W dwóch przypadkach, to chyba nawet było PPE Mam wrażenie, że gry pokroju CP77 będą działać tak jak na RTX 3080 dopiero na następnej generacji... Trochę tak było z Control, które potrafiło dławić się na PS4. Widzę, że karty ostatnio staniały ale nawet jakbym chciał to raczej nie wejdzie do mojego kompa do gier (na którym nie gram) taki 3080. Komp to jakaś wersja SSF od Lenovo choć ma kartę 1550 Ti. Zaraz musiałbym wymienić zasilacz, może obudowę płytę główną, ram może mógłby zostać ale procek to nie wiem. Wyszłoby, że lepiej kupić nowy komputer Ewentualnie myślę jeszcze nad tym strumieniowaniem gry poprzez geforce now aby poczuć moc grafiki w CP77. Na papierze wygląda to dobrze, łącze powinno dać sobie radę. Ciekawe jak w praktyce to wypada... 47 minut temu, łom napisał: Nie patrz tylko na teraflopy bo to nie przekłada się 1:1 na wydajność. W grafice bez RT tabelka 'relative performance' z tej stronki NVIDIA GeForce RTX 4090 Specs | TechPowerUp GPU Database jest bardziej miarodajna. A jak odpalisz RT to GeForce będzie miał większą wydajność niż porównywalny Radeon, tak samo PS5 z GPU identycznym pod względem TFlops do 6600 XT jest w stanie odpalić SpiderMan w ~1200p, 60 FPSach i RT a ten Radeon będzie się pocił przy 30 FPS. To w jaki sposób można to porównywać i sprawdzać? Dawno, dawno temu to wszystko było prostsze i jak karta miała w nazwie kolejną cyfrę, to wiadomo było, że będzie lepsza. Teraz już niekoniecznie. Cytuj
PiPoLiNiO 743 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 Teraz też jest lepsza. 4090>3090>2080>1080 Cytuj
Ukukuki 7 127 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 4 godziny temu, Elitesse napisał: Czy jeżeli gra chodzi w 120 klatkach, to jest to dostrzegalne przez ludzkie oko? Podobno max tego co jesteśmy w stanie zauważyć to 60hz więc nie wiem czy tutaj nie jest podobnie. Matko bosko takie rzeczy na forum o grach. Jeśli chodzi ci o pojedyncze klatki to ludzkie oko (zależnie od człowieka) jest w stanie wyłapać od 200 do 300 klatek na sekundę i różnicę między nimi. Przykładowo jednym z testów pilota myśliwca jest wyświetlenie 200-300 klatek w ciągu sekundy, w jednej z tych klatek jest samolot - pilot ma za zadanie podać jaki. Ogólnie masz myślenie latami 90 czy początkiem 2000, wtedy świat gierek był na tyle młody ,że były faktyczne ograniczenia. Obecnie gry tak dobrze się skalują ,że możesz tą samą grę wydać na Switcha, PS4 i PC. Mając topowy PC grasz w topowej jakości. Grając na najsłabszym sprzęcie będziesz miał obciętą grę o detale, płynność, rozdzielczość i efekty. Złotym środkiem obecnie jest PS5/XSX, pod to są robione gierki z kompromisami. Chcesz grać w 60 klatkach w 4K kupujesz dobrego PCta, jeśli chcesz grać w topowej jakości wydajesz 20k na kompa i grasz powyżej 100 klatek z detalami na maksa (często ciągle bez maks RT ). Cytuj
łom 2 035 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 1 minutę temu, tjery napisał: Chociaż akurat w przypadku 4090 trochę zakłamuje w drugą stronę (bo bierze pod uwagę rozdzielczość 1080p. w której 4090 ma bottlenecka na CPU). Z tabelki wynika, że 4090 jest niecałe 1,8 raza mocniejsze niż 3080, a w 4K (czyli jedynej sensownej rozdzielczości do porównywania takiej karty, bo nawet w 1440p ma bottlenecka) jest ponad 2x mocniejsza (w zależności od testów nawet do 2,2x). Idealnie nigdy nie będzie ale bliżej temu do faktycznej wydajności niż porównywanie TFlopsów (bo wtedy taki 7900 XT powinien być ponad 2x szybszy od 6900 XT). 20 minut temu, tjery napisał: Aż niemożliwe z tym tym Radeonem. Na ustawieniach takich samych jak na PS5 (a nawet wyższych, bo w stałej rozdziałce 1440p) RTX 2060super ma na luzie +60 fps (na Times Square 76 fps). A 2060super jest jakieś 20% słabszy niż 6600XT. I o ile da się zrozumieć czemu na karcie słabszej w rasterze niż PS5, czyli RTX 2060s gra chodzi lepiej, bo to karta Nvidii z o wiele lepszy RT i tym nadrabia, tak skąd taka przepaść pomiędzy PS5 a Radeonem skoro w PS5 siedzi karta AMD i wydajność w RT jest raczej porównywalna? Nie tak na luzie bo podczas gameplayu są spadki, popatrz sobie inne testy a z resztą nawet na tym filmiku co przesłałeś w 24 minucie koleś wspomina żeby odpalić DRS. A co do tego czemu na konsoli działa lepiej niż na podobnym GPU w PC >> optymalizacja pod jeden sprzęt. i ta różnica będzie się powiększać. Zobacz sobie np. jak działa Radeon 7850 (GPU jak w PS4) w takim God of War, i tak samo RX 6600 XT czy nawet 6700 XT z czasem będą coraz bardziej odstawały od PS5/XSX. 24 minuty temu, Elitesse napisał: To w jaki sposób można to porównywać i sprawdzać? Sprawdzasz test/recenzję danej karty która Cię interesuje, masa jest tego teraz. Cytuj
tjery 1 276 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 (edytowane) 19 minut temu, łom napisał: Nie tak na luzie bo podczas gameplayu są spadki, popatrz sobie inne testy a z resztą nawet na tym filmiku co przesłałeś w 24 minucie koleś wspomina żeby odpalić DRS. Nawet jeśli wziąć pod uwagę, że czasem leci w okolice 50 fps to mówimy tu o rozdzielczości 1440p, a nie około 1200p jak na PS5. I co z tym Radeonem 6600XT, skąd masz to info, że Spider działa na nim ponad 50% gorzej niż na PS5? Skoro na słabszym GPU Nvidii działa lepiej niż na PS5 (a w najgorszym przypadku porównywalnie) . 19 minut temu, łom napisał: A co do tego czemu na konsoli działa lepiej niż na podobnym GPU w PC >> optymalizacja pod jeden sprzęt. i ta różnica będzie się powiększać. Zobacz sobie np. jak działa Radeon 7850 (GPU jak w PS4) w takim God of War, i tak samo RX 6600 XT czy nawet 6700 XT z czasem będą coraz bardziej odstawały od PS5/XSX. W tej generacji póki co takich różnic nie ma, wszystko co wychodzi na PS5 chodzi na takich samych ustawieniach na PC na kartach pokroju 2060/2060s (z RT), 2070/2070s (bez RT). Póki co tej magii optymalizacyjnej nie widać. Chyba, że to tylko na kartach Nvidii jest tak dobrze, a na Radeonach w ogóle nie ma optymalizacji, skoro gry z PS5 chodzą na takich samych ustawieniach 50% gorzej. Edytowane 30 grudnia 2022 przez tjery Cytuj
łom 2 035 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 4 minuty temu, tjery napisał: I co z tym Radeonem 6600XT, skąd masz to info, że Spider działa na nim ponad 50% gorzej niż na PS5? Masz np. tutaj. Ja mam teraz RX 6600 i np. w RE2 z RT w 1080p z ustawieniami podobnymi jak na PS5 mam koło 35 fpsów. 4 minuty temu, tjery napisał: W tej generacji póki co takich różnic nie ma, wszystko co wychodzi na PS5 chodzi na takich samych ustawieniach na PC na kartach pokroju 2060/2060s (z RT), 2070/2070s (bez RT). Póki co tej magii optymalizacyjnej nie widać. Chyba, że to tylko na kartach Nvidii jest tak dobrze, a na Radeonach w ogóle nie ma optymalizacji, skoro gry z PS5 chodzą na takich samych ustawieniach 50% gorzej. W tym momencie tak, w grach z 2015 Radeon 7850 też sobie jakoś radził, ja nawet nie liczę na to że za 2-3 lata będę grał na RX 6600 w nowe gry w podobnej jakości jaka jest na PS5. Cytuj
Elitesse 382 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 3 godziny temu, Ukukuki napisał: Matko bosko takie rzeczy na forum o grach. No a gdzie Twoim zdaniem powinienem o to zapytać? Na forum dla wędkarzy albo fanów vw? Czytałem, że człowiek maks co jest w stanie zobaczyć to obraz o częstotliwości 60hz, a większe ilości to miałbyć tylko kit marketingowy aby sprzedać sprzęt. Skąd mam wiedzieć czy to nie jest kolejny taki chwyt. Zwłaszcza, że do tej pory standardem było 30 klatek (czasami pojawiało się 60), a ja mam spore zaległości w temacie skoro oceniasz że to myślenie jeszcze z tamtej epoki. 3 godziny temu, Ukukuki napisał: Jeśli chodzi ci o pojedyncze klatki to ludzkie oko (zależnie od człowieka) jest w stanie wyłapać od 200 do 300 klatek na sekundę i różnicę między nimi. Przykładowo jednym z testów pilota myśliwca jest wyświetlenie 200-300 klatek w ciągu sekundy, w jednej z tych klatek jest samolot - pilot ma za zadanie podać jaki. Rozumiem. Pilotom ogólnie stawiane są spore wymagania. Ja bym się raczej nie nadawał - wada wzroku, a w gierkach czasami nie byłem w stanie zauważyć różnicy pomiędzy 30 a 60 klatkami. Nie wiem od czego to zależało ale w niektórych tytułach twórcy chyba potrafili zamaskować fakt, że gra odpala się w 30 klatkach. Nie wiem. Cytuj
easye 3 391 Opublikowano 30 grudnia 2022 Opublikowano 30 grudnia 2022 3 godziny temu, łom napisał: Masz np. tutaj. Ja mam teraz RX 6600 i np. w RE2 z RT w 1080p z ustawieniami podobnymi jak na PS5 mam koło 35 fpsów. W tym momencie tak, w grach z 2015 Radeon 7850 też sobie jakoś radził, ja nawet nie liczę na to że za 2-3 lata będę grał na RX 6600 w nowe gry w podobnej jakości jaka jest na PS5. Tyle, że RX 6600 to karta, która powinna być sprzedawana za maks 900-1000 zł do 1080p, tak mniej więcej 1/3 ceny konsol, które też od dwóch lat są wywindowane pod sufit... Dzisiaj nawet w sklepie kupisz 6650 XT za 1600 zł, przedział raczej budżetowy, a to, że jakaś gra chodzi słabo na karcie AMD nie powinna chyba nikogo dziwić, kto kart AMD używa/używał... Gry ogólnie chodzą z reguły jak chcą, sterowniki co chwile potrafią cos zepsuć, nie ważne jaką rozdzielczość ustawisz, jakie ustawienia w grze wybierzesz, nic tam przez lata się nie zmieniło! Patrzyłem sobie ostatnio na RX 7900 XTX i wszystko co mnie interesowało działa gorzej niż o połowę tańszej 3080, który w wielu grach dawał stabilniejsze klatki, do tego wspiera RT. Jasne zdarzają się wyjątki, które w tym przypadku tylko potwierdzają regułę. Cytuj
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.