Skocz do zawartości

Ogólne pecetowe pierdu-pierdu


Gość ako

Rekomendowane odpowiedzi

Opublikowano (edytowane)
6 minut temu, mozi napisał:

Może zasilacz? Teraz poci się bo cpu żre więcej. 

Tyle, że on nie żre więcej. Tamten brał po OC więcej niż ten w tej chwili w grach. Koło 150W idzie w gierkach. Karta 380-440W. To raczej nie zmęczy 1000W Platinum. 

Edytowane przez PiPoLiNiO
Opublikowano

To kurna nie wiem :) 

Coś musi być na rzeczy bo tylko płyta jest inna z tego co może wyć.

wlasnie - @tjeryczy masz podpięte wentyle do płyty czy używasz huba w budzie? 

Opublikowano
3 minuty temu, mozi napisał:

To kurna nie wiem :) 

Coś musi być na rzeczy bo tylko płyta jest inna z tego co może wyć.

wlasnie - @tjeryczy masz podpięte wentyle do płyty czy używasz huba w budzie? 

Najgorsze, że wybór płyt z790 jest w Polsce malutki. Zostaje albo coś jak Tjery, albo ROG MAXIMUS Z790 HERO. Tyle że to już z 2700 robi się 3600. 

Opublikowano

Ogólnie to w ogóle nic nie chce. Nie pasuje mi totalnie, że na ROG pci 5.0 nvme jest na osobnej karcie podpinanej do PCI-E, co jest kuriozalne bo mając 4090 nie włożę jej do przedostatniego slotu gdzie zadziała jako 5.0. Czyli kupujesz top płytę za 3600 z obsługą dysków 5.0 ale ich nie użyjesz.  A w Aorus mam normalnie górny slot nvme jako 5.0.

Opublikowano
15 minut temu, mozi napisał:

Zanim zaczniemy używać tych dysków 5.0 to pewnie proc z płyta wylecą z budy. Ale racja to trochę durne ograniczenie. 

Przecież to kwestia miesiąca-dwóch. A ceny są identyczne jak 4.0. Inna rzecz, że odcina to połowę lini PCI karcie graficznej. No ale wtedy działa z prędkością 4.0 więc to bez znaczenia. 

 

U mnie piszczał najprawdopodobniej przedłużacz. Powyjmowałem kable wszystkie z niego, wsadziłem jeszcze raz i póki co okej. No ale trzeba potestować dłużej. 

Opublikowano (edytowane)
24 minuty temu, mozi napisał:

A ja myślałem ze ze mną się ciężko dyskutuje. 

? :D

Chodzi Ci o linie PCI? No płyta ma obsługę dysku 5.0 ale zabiera linie z procka, przez co PCI grafiki działa jako 8x,a nie 16x.

 

Tyle, że 8x 5.0 to odpowiednik 16x 4.0. Karty są 4.0 więc nic się nie zmienia w kwestii wydajności. 

Edytowane przez PiPoLiNiO
Opublikowano

Przy okazji dysków. Pierwszy test sensowny. Prędkość bez szału, 10tys mb/s. Do tego ten wentylator robi taki hałas że lol. Ale po odłączeniu nie ma tragedii z temperaturami, a na lepszych płytach z wielkim radiatorem to już w ogóle powinien być luz. 

 

Opublikowano (edytowane)

@mozi Jakiekolwiek ograniczenie limitów poniżej 300W u mnie kończy się zbijaniem zegarów. Więc ciężko tu pisać o braku wpływu na wydajność. 

 

Widzieliście testy nowych AMD z 3D cache? Prawie 2x mniejszy pobór mocy przy tej samej wydajności co 13900K.

 

https://www.youtube.com/watch?v=TTOVR0XHd0g&t=1s

 

Edytowane przez PiPoLiNiO
Opublikowano (edytowane)
20 minut temu, PiPoLiNiO napisał:

Gówno czy nie, pobór robi wrażenie. 

 

Nie, dzięki, wole mieć w gierkach zużycie o kilkadziesiąt W większe, ale nie martwić się o to, w której zostawić 2CCD, w której wyłączyć ten z zegarami, a w której ten z Cache ;) po tym jakie z tym cyrki były na 5950x, który miał 2 zwykłe CCD nawet nie chcę wiedzieć co tu się będzie działo ;)

Edytowane przez tjery
Opublikowano

Już teraz można dostać pierdolca z tymi ustawieniami. Włącz gsync w panelu nvidii, wyłącz vsync włącz dlss3 ale nie zapomnij o dlss2 quality a jak jest bez dlss3 to vsync na on. Masakra. 

Opublikowano
24 minuty temu, mozi napisał:

Już teraz można dostać pierdolca z tymi ustawieniami. Włącz gsync w panelu nvidii, wyłącz vsync włącz dlss3 ale nie zapomnij o dlss2 quality a jak jest bez dlss3 to vsync na on. Masakra. 

 

Poza jakimiś wyjątkami nie trzeba w ogóle się bawić ;) dajesz na stałe w panelu nvidii w ustawieniach ogólnych gsync on i vsync on, a w grach vsync zawsze wyłączasz i to wszystko. Zawsze śmiga bez różnicy czy z DLSS3 czy bez. A DLSS3 czyli frame generator można używać niezależnie od DLSS2. 

  • Dzięki 1
Opublikowano

za AMD zawsze przemawiała tylko jedna 1 rzecz - skradałem kompa z 4 lata temu na AM4, kupiłem wtedy w dobrej cenie Ryzen'a 3600.

W tym roku wymieniłem procka za 200 zł na Ryzena 5600, a w przyszłości nadal mogę wsadzić jeszcze lepszego procka, albo gamingowy hit z zeszłego roku - Ryzen 7 5800X3D.

2 generacje ciągnę na tej samej płycie - u Intela zawsze jest całkowicie na odwrót - przy jakimkolwiek upgradzie z reguły trzeba wymieniać całą płytę główną...

Opublikowano (edytowane)

Jeszcze co do DLSS to polecam sprawdzić DLAA od Nvidii, już się nie będę rozpisywał jak to działa (taki DLSS, ale bez upscallingu), bo można sprawdzić w necie, w skrócie najlepsza forma antyaliasingu.

Takie Death Stranding czy God of War w 4K z TAA po przestawieniu TAA na DLAA to jest taki przeskok w jakości obrazu jakby 4K z TAA to było 1440p, a 4K z DLAA to było dopiero 4K. Zrywająca tupecik ostrość, idealna stabilność obrazu w ruchu, zero jakiegokolwiek shimmeringu, migotania, o wiele lepiej odwzorowane szczegóły, jakość obrazu jest kosmosik. 

Porównałem sobie nawet w tych dwóch gierkach DLAA w 4K z downsamplingiem z 8K do 4K i jakościowo praktycznie nie do rozróżnienia, a DLAA zabiera kilka procent wydajnosci względem TAA, a downsampling z 8K kilkadziesiąt.

Edytowane przez tjery
Opublikowano
50 minut temu, tjery napisał:

 

Poza jakimiś wyjątkami nie trzeba w ogóle się bawić ;) dajesz na stałe w panelu nvidii w ustawieniach ogólnych gsync on i vsync on, a w grach vsync zawsze wyłączasz i to wszystko. Zawsze śmiga bez różnicy czy z DLSS3 czy bez. A DLSS3 czyli frame generator można używać niezależnie od DLSS2. 

Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień:)

 Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze 

Opublikowano (edytowane)
11 minut temu, mozi napisał:

Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień:)

 Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze 

Już Ci to tłumaczyliśmy jakiś czas temu. Ustawiasz w panelu Nvidia vsync na włączony. Wtedy działa z FG nawet jak gra pokazuje, że jest wyłączony. 

Edytowane przez PiPoLiNiO
  • Dzięki 1
Opublikowano
9 minut temu, mozi napisał:

Sprawdzę ale znowu chyba za dużo czytam bo ponoć vsync w panelu powoduje większy input lag. Co cl tego dlaa to widzę ze jakiś wrapper jest do tego. Tak jak mówiłem - tęsknie za czasami gdzie się ustawiało detale rozdzielczość i ogień:)

 Edit - zasuwałem tez ze włączenie fg wyłącza vsync w grze zawsze 

 

Ten input lag to wymysł, jakieś kilka ms, których nikt nigdy nie poczuje.

No wrapper jest do tych gier, które nie obsługują natywnie DLAA, ale mają DLSS, ale obsługuje się go banalnie.

Tak, jak włączasz FG to Vsync w grze się wyłącza, ale wystarczy że masz vsync w panelu nvidii i jest git. Ale już nad tym pracują, żeby można było mieć vsync w grze z włączonym FG, o ile się nie mylę w MFS juz tak jest.

  • Dzięki 1
  • beka z typa 1
  • 1 miesiąc temu...
Opublikowano
33 minuty temu, teddy napisał:

Widzieliscie ze ktos ogarnal DLSS mod do RE4? Podobno poprawia jakosc obrazu i performacne w porownaniu do FSR

 

Screenshot 2023-03-30 at 09.08.52.png

 

Tak, mam i działa świetnie, instaluje się banalnie, jak co to piszcie, to napiszę jak. Ta gra nie jest aż taka wymagająca, więc jak komuś chodzi natywnie z TAA w zadowalającej ilości fps to oprócz opcji DLSS można wybrać DLAA, to działa jak DLSS tylko nie upscalluje z niższej rozdziałki do wyższej + AA, a upscalluje z naszej natywnej do wyższej i z powrotem do natywnej, czyli daje najlepszy możliwy antyaliasing bez upscallingu. W stosunku do natywnej z TAA jest trochę bardziej wymagające, traci się kilka procent fps, ale za to efekt miazga, TAA przy tym wygląda jakby gra w ogóle antyaliasingu nie miała, obraz jest tak ostry jak to tylko możliwe, zero shimmeringu, migotania w ruchu, nic. Polecam - tjery.

Opublikowano

W ogole te remaki sa zajebiste jezeli chodzi o mody. W re2 czy re3 bez problemu sobie modele podgrywalem czy tweakowalem kolory zeby nie bylo mleka (RE2), gierki wygladaly duzo lepiej a same poprawki to byl banal w odpaleniu, skopiowanie paru dll xD

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...