-
Postów
2 234 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
9
Typ zawartości
Profile
Forum
Wydarzenia
Treść opublikowana przez tjery
-
W sumie jak trochę dłużej na te foty popatrzyłem to rzeczywiście jest dobrze. I po co kusisz?
-
Fajna, ale jednak dla mnie zbyt future, moja Meshify 2 wciąż top https://www.komputronik.pl/product/760862/fractal-design-meshify-2-tg-dark-tint-black.html?gclid=CjwKCAiAwomeBhBWEiwAM43YILg8pr0ijNPJ8671Z1CQUVP01zbqO24dr101wLj9DpCA2vRH0MlarhoCUMAQAvD_BwE&gclsrc=aw.ds
-
Heh, zabawne, że jak wojna zapukała do naszych granic to każdy nagle taki bojowy i twardy w postawie, a to, że na co dzień kupuje produkty od koncernów, które bez wojny rozpierdalają życie milionom ludzi, tylko trochę dalej od nas, to luz.
-
Może i bym się skusił na lepszą płytę, ale raz, że w OC procka się nie bawię zbytnio, bo w grach zyski iluzoryczne, a dwa, kolejna generacja Intela to już nowy Socket, więc to jednorazówka. Ta moja też ma Thermal Guard 3 na jednym slocie, ale 4.0. Tylko problem na masterze jest taki, że ten slot zabiera połowę PCie, więc jak tam włożysz dysk to karta ma tylko 8 z 16.
-
No to z własnych doświadczeń po poprzednim kupnie: - procek luz, wiadomo - płyta - ten Rog Strix koło 2700, sam teraz kupowałem i po przeczytaniu kilku recenzji i obejrzeniu testów zdecydowałem się niby na dosyć budżetowy wariant, ale wszystko śmiga idealnie na https://www.oleole.pl/plyty-glowne/gigabyte-p-yta-g-wna-giga-z790-aorus-eli-ax1700.bhtml?from=ceneo&p=1479.00&cr=0&t=20230114-1924&utm_source=ceneo&utm_medium=referral&ceneo_cid=dbc14017-f3b3-f31a-2a8a-f465adcaa4c1 1500 zł, masz 1200 zł do przodu, płyta ma wszystko co potrzeba, dobrą strefę zasilania, na luzie ogarnia 13900k (chyba, że chcesz się bawić w jakieś mocne OC), 4 sloty na m2, radiatory na każdym, dużo portów itd., wygląda spoko, jest jeden delikatny LED u dołu płyty, nie ma dyskoteki - RAM jak to RAM, przy takiej jakości dużo różnicy nie będzie, ale zobacz sobie te co wziąłem GSkill Trident Z5 6400 32CL, mają spoko paski ledowe na górze, na tej płycie Gigabyte lecą bez OC z XMP zgodnie z opisem 6400 32-39-39-102, droższe niż Ripy o 100 zł https://www.morele.net/pamiec-g-skill-trident-z5-rgb-ddr5-32-gb-6400mhz-cl32-f5-6400j3239g16gx2-tz5rk-9800009/?gclid=CjwKCAiAwomeBhBWEiwAM43YIOOd4nMVdyc6uYLh-ZNmZVlB3wR-XVlCHJ6JrFw6LmG8Gucpi10oGhoC9PQQAvD_BwE - karta - odradzam pakowanie się w ROG Strixa, poprzednio też wziąłem topkę, czyli 3080 TI Suprim X od MSI, cenowo dużo więcej, a wydajnościowo delikatne różnice, można wziąć coś cichego i z dobrymi temperaturami nie z samej topki, ja np. mam TUFa OC też od ASUSa (a wziąłbym 1000 zł tańszego bez dopisku OC, ale nie było, bo co to za problem w afterburnerze sobie rdzeń podkręcić), sporo tańszy, temperatury i głośność bez zarzutu i na luzie kręci się do 2900-2950 Mhz, zysk w fpsach ze Strixa to będzie jakieś 1-2%, a kasy sporo więcej - dysk to samo, patrząc na realne zyski w stosunku do ceny to lepiej 980 pro i wziąć więcej TB, sam mam 2x1TB i 1x2TB 980 PRO i czasem miejsca brakuje - chłodzenie i zasilacz luz - i pastę polecam thermal grizzly kryonaut, ta mała tubka za 40 dyszki starcza na 2 razy, teraz po 1,5 roku zużyłem drugą połowę i przewodzi idealnie, z początku temperatury wydawały mi się trochę wysokie na 13900k, ale to dlatego, że porównywałem do 5950x, jak sprawdziłem w necie to mam takie jak inni na tym samym procku Ogólnie jeżeli nie patrzysz na hajs w ogóle, to bierz to co napisałeś, ale ja tak zrobiłem ostatnio i teraz stwierdziłem, że to jednak nie ma sensu, bo można być parę K do przodu prawie nic nie tracąc, przy takiej kasie to niby niewiele, ale kasa to zawsze jednak kasa. A budę masz przewiewną? bez szyb z przodu itd?
-
Ale częstotliwość odświeżania masz na najwyższą czy pod kontrolą aplikacji? Tu są te myślniki, UI i fast movement: Upcoming DLSS improvements include: AI network enhancements for DLSS Frame Generation that better take advantage of game engine data, improving UI stability and image quality during fast movement. An updated AI network for DLSS Super Resolution Ultra Performance mode, improving fine detail stability and overall image quality. An updated AI network for NVIDIA DLAA that improves image quality, reduces ghosting, and improves edge smoothness in high contrast scenarios.
-
Tak, w Spiderze w ściśle określonych sytuacjach (jak np. wbieganie sprintem pod górę na budynek z kamerą od dołu koło rąk Petera) jakieś tam delikatne są, ale jakby nie materiał DF, który pokazał gdzie patrzeć, żeby to zobaczyć to można nawet uwagi na to nie zwrócić. Oczywiście mówię o grze w 120 fps i o widoczności tego podczas gry, a nie na stop klatkach. Co do screen tearingu to uwierz, że z vsync u mnie go nie ma w ogóle, nie gram na monitorze tylko na C1 48" z metra z hakiem. Na screen tearing jestem mega czuły i 100% nic takiego nie mam, nawet minimalnie w żadnej grze z DLSS3. Wydaje mi się, że masz coś nie tak z vsync, bo rzeczywiście wczoraj mi się delikatny tearing rzucił w oczy we Wiedźminie. Mówię co jest, chyba mi się wydaje, ale nie, pojawiał się minimalny u dołu ekranu podczas szybkiego sprintu i przy obracaniu kamerą. Okazało się, że w Nvidia Control Panel ustawienia mi się zresetowały po aktualizacji sterowników i miałem Vsync na off, po zmianie na on zero tearingu. Masz normalnie w panelu vsync on, gsync on i częstotliwość odświeżania najwyższa dostępna? Gdzie jest napisane, że ta łatka ma poprawić teraing pomimo włączonego vsync? Nic takiego nie widziałem.
-
No to jedyne co muszą dopracować, ale już jest zapowiedziana łatka, która ma się tym zająć, jest nawet filmik z przykładem poprawy UI w CP2077. Ale też to tylko UI, najważniejsze, że w samej grze jest zajebiście. Kosmos jest ta technologia, 50% więcej klatek za free bez praktycznie żadnych strat jakościowych. Pierwszy raz jak przeszedłem z opcji grania w MFS bez DLSS3 i na Ryzenie w 40 fps ze stutteringiem nad Nowym Jorkiem do opcji DLSS3 i Intela w 120 fps bez najmniejszego nawet stutteringu przy kreceniu kamerą prawie mi kutang stanął.
-
Hehe, no coś tak mi podpadało, bo strzelali mega kalecznie, ale myślałem, że to może jakieś lobby dla początkujących grających na padach
-
No ściągnąłem i co najlepsze wygrałem solo bez budowania grając w to pierwszy raz w życiu z 8 killami, chyba nowe powołanie odnalazłem Ustawiłem maxa w 4K z nanite i lumenem na max plus hardware RT, miałem koło 50-60 fps na tym wycinku mapy z lasem ala jesień, ale trochę pobiegałem i wyszedłem z meczu, żeby zmienić ustawienia. I wystarczy dać AA na TSR Epic i to skalowanie TSR na 75% i już w drugim meczu tym wygranym gdzie przeleciałem sporą część mapy miałem między 60-80 fps, ani razu nie poleciało poniżej 60. I wyglądało bardzo dobrze, 75% z 4K doskalowane przez TSR do 4K daje spoko efekt, także raczej bez praktycznie żadnych strat w jakości obrazu można pykać 60+ fps. I muszę przyznać, że wygląda to naprawdę dobrze na tym UE5 z hardware RT. Także jakby gierki na UE5 miałyby mi działać w 4K z DLSS Quality na maks ustawieniach z RT w 60+ fps to bym nie narzekał
-
Bardziej pewnie chodzi o styl grafiki w Fortnite, nie wygląda to po prostu adekwatnie do tych wymagań, wydaje się że to tylko taka cukierkowa popierdółka co powinna na telefonie pójść. No bo jak się to porówna np. z takim Dying Light 2, które w natywnym 4K na max ustawieniach z RTGI, RT odbiciami, cieniami i AO chodzi na 4090 podobnie (koło 50-70fps) to na pierwszy rzut oka coś jest nie teges, bo DL2 na PC wygląda tak https://twitter.com/Berduu/status/1492924679006392322?ref_src=twsrc^tfw|twcamp^tweetembed|twterm^1492924679006392322|twgr^beaf810a98db7388bdabeba14645ea69de6d88d2|twcon^s1_c10&ref_url=https%3A%2F%2Fwww.ppe.pl%2Fnews%2F296051%2Fdying-light-2-idzie-jak-burza-gra-techlandu-przebila-kolejny-rekord-na-steam.html
-
Ja akurat nie pykam w Fortnite i nie miałem z nim styczności na PC. Zapewne chodzi o ten nowy update na UE5? Myślę, że to po prostu zwalona optymalizacja, gra nie była pod to robiona tylko po łebkach zupgrejdowana i taki jest efekt. Nawet patrząc przez pryzmat konsol wszystko wskazuje na optymalizację, z tego co widzę tam rozdziałka jest dynamiczna i żeby trzymać 60 fps leci w dół do 900p i to bez RT.
-
Jak się nie jest psychicznym jak ja to nie trzeba na tym co miałem wcześniej, a co kupiłem prawie 2 lata temu, czyli 3080Ti Ryzen 5950x (tak naprawdę zamiast tego Ryzena mogłem wziąć o ponad połowę tańszego Intela i na to samo by wyszło) 32 GB DDR4 3800Mhz CL14 na luzie można grać w 4K na max ustawieniach, zależnie od tytułu w natywnym 4K badź z DLSS Quality, a w najbardziej wymagających grach z RT jak chce się wszystko na full to DLSS Performance, który w 4K wygląda świetnie. Wiesz, teraz to mi wszystko lata 4K 120+ na max, z w grach z RT 60+ w natywnym 4K w większości gier, pojedyncze przypadki gdzie trzeba dać DLSS Quality, więc poniżej tego też raczej da radę pograć w świetnej jakości
-
No ale teraz i tak jest najlepiej w historii jeżeli chodzi o PC, masz w jednym miejscu wszystko, z mocnym PC w najlepszej jakości, a będzie tylko lepiej jak Sony zacznie szybciej wypuszczać nowe eksy po nadrobieniu backlogu. I jak może eksy aż tak bardzo nie różnią się na smoku od wersji z konsol (uznając, że dwa razy więcej klatek + 2 x wyższa rozdzielczość + wyższe ustawienia to nieduża różnica) tak już gierki multiplatformowe to na smoku zupełnie inna jakość niż na konsolach. Plus wiadomo, wszystkie gry z RT, którego na konsolach nie ma w ogóle albo jest w szczątkowej formie przy 30fps.
-
No tylko żeby na PC grać w Spidermana w takiej samej jakości jak na PS5 wystarczy 2060s i ryzen 3600, więc żeby grać w jakości konsolowej raczej nie trzeba wydawać majątku na topowy sprzęt. Póki co żadna gierka na konsolach nie wyszła ponad 2070/2070s w bezpośrednich porównaniach (wyjątek Death Stranding, gdzie trzeba było 2080 do tych samych ustawień co na PS5). Ale oczywiście zgodzę się z tym, że obecnie gierki przy takich cenach kart nie powinny wisieć na procku, co ostatnio często się zdarza.
-
No ale to tylko w syntetykach, w gierkach niecałe 100W (bez OC). Chłodzę H150i Elite Capellix, podczas grania koło 60 stopni ze skokami do koło 70. Może być, ale nie jestem pewny czy czasem te standy co były w zestawie nie są trochę za wysokie i pompa przez to nie jest dobrze dociśnięta do procka, ale póki co nic z tym nie robię, koło 60 stopni nie jest źle. Sprawdziłem sobie jeszcze wczoraj Spidermana, podczas bujania się na pajęczynie na 5950x leciało do koło 55 fps nawet, tu minimum 80, średnio koło 100 w natywnym 4K. Także jednak procek przy obecnym projektowaniu gier się przydaje nawet w wyższych rozdziałkach.
-
Podbój na 128 w 4K DLSS Quality na max z tym ich RT ambient occlusion 120 cały czas z okazjonalnymi spadkami o kilka klatek przy większych zadymach. Oczywiście nie wiem czy tak jest wszędzie, bo nie sprawdzałem wszystkich map, to co piszę to na Porzuconym.
-
A ja za to mam całkowicie odmienne odczucie jeżeli chodzi o Frame Generator. Po tym co i jak piszę chyba widać, że mam totalnego pierdolca na punkcie jakości grafiki i obrazu i z czystym sumieniem mogę napisać, że FG sprawdza się świetnie. Próbowałem w Wiedźminie 3, Plague Tale, NFS Unbound, M Flight Simulator, Warhammer Darktide, FIST, Spiderach, Portal RTX, Bright Memory. W każdej efekt jest super, przy grze w 120 fps nie widać podczas gry żadnych artefaktów nawet specjalnie się przypatrując. Teraz jeszcze wypuszczą łatkę, która poprawi generowanie elementów UI. Ogólnie zajebista technologia i IMO spory plus po stronie 4070 Ti vs 3090/3090Ti. Jeszcze się nie bawiłem
-
Tak, za jakiś czas sprawdzę jak to wygląda i dam Ci znać.
-
Ja tam nic do nich nie mam, bo kompa mam od 2 lat, ale po tym co piszecie i po własnych doświadczeniach z Ryzenem w grach już też chyba nigdy nic od nich nie wezmę. A to trzeba było wyłączyć gdzieś SMT, bo Ryzen nie ogarniał i przycinało, a to przejść do legacy mode z połową rdzeni, bo nie ogarniał przełączania się pomiędzy CCD. W Wiedźminie problem z DLSS3 oczywiście tylko na Ryzenach. Posprawdzałem na szybko na Intelu te gierki, z którymi miałem problem na Ryzenie i na Intelu hula aż miło bez żadnych kombinacji. Już widzę jak te ich nowe x3d będą działały, jeden CCD z większym cache i niższym taktowaniem, drugi z wyższym zegarem i normalnym cache i Windows scheluder ma wykminić na czym dana gra bardziej skorzysta i Ryzen ma się przełączać na odpowiedni CCD.
-
Widzisz @PiPoLiNiO co narobiłeś? Cisnąłeś mnie o procka i zobacz do czego doprowadziłeś Pierwsze wrażenia takie, że jednak dopiero 13900K wyzwala pełną moc z 4090. Przykładowy screen z CP2077 na 5950x i 13900k, to samo miejsce, te same ustawienia (wszystko max z RT, 4K DLSS quality): Dodatkowe fpsy spoko, ale co najważniejsze mega poprawiły się 1 i 0,1% lowy, stuttering czy odczuwalne chwilowe spowolnienia, który w niektórych grach występowały na Ryzenie zniknęły zupełnie (np. w RDR 2 podczas szybkiej jazdy na koniu przez Saint Denis). I tu jest chyba największy plus, w miejscach gdzie gra wisi na procku to jest miazga w stosunku do 5950x. Wczoraj jeszcze przed zmianą procka sobie załączyłem te gry, w których pamiętałem, że były problemy z klatkami przez CPU, żeby mieć porównanie. I tak, w CP2077 na rynku koło sklepu Misty klatki leciały mi nawet do ok. 45 w czasie sprintu między npcami, teraz minimalnie koło 65. Kingdome Come Deliverence w miejscach gdzie miałem spadki do 50-60 fps teraz koło 90-100. Wiedźmin 3 z DLSS3 w Novigradzie klatki koło 100, w najcięższych miejscach 80+ (wcześniej spadki do koło 55-60). Ale co najważniejsze nowy procek całkowicie wyeliminował problemy z frametime i podczas galopu przez Novigrad nie ma najmniejszych zwolnień/stutterów. Swoje też pewnie robi DDR5 6400 CL32.
-
4090
- 155 odpowiedzi
-
- cyberpunk 2077
- cp
-
(i 3 więcej)
Oznaczone tagami:
-
No tak, izon tak pisał, ale to coś u niego jest nie tak, a nie z grą (odpisałem odnośnie tego w temacie o CP2077 na PC). Dokładnie, to artefakty od FSR.
-
Hmm, to chyba jednak coś związane z określonymi ustawieniemi/sprzętem, ale w sumie bardzo dziwne. Bo sporo ludzi myślało, że jest coś nie tak, bo im się same ustawienia zmieniły na niższe, ale że u Ciebie po zmianie znowu na ultra wciąż jest blur/brak ostrości, mega dziwne. Ja po ostatnim patchu jedyną ze zmian, które zauważyłem to poprawa pop upu, poza tym raczej nic, a na pewno żadnego downgradu dotyczącego ostrości gry. Nic z tych rzeczy, o których piszesz u mnie nie występuje. Ale co może być u Ciebie tego przyczyną to nie mam pojęcia. Parę moich screenów z najnowszym patchem.
- 155 odpowiedzi
-
- 4
-
- cyberpunk 2077
- cp
-
(i 3 więcej)
Oznaczone tagami: