-
Postów
424 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
2
Typ zawartości
Profile
Forum
Wydarzenia
Treść opublikowana przez MarekCol
-
Ktoś już testował ten overdrive? Podobno ładne. Karta da radę, ale trochę mi się nie chce.
-
Nie no, to akurat musisz Tylko w ciasnym 16:9 żebyś zbyt wiele nie widział ;p
-
Nie graj w Visage bo sobie gierkę popsujesz Grałem 21:9 i zero horroru
-
1. To był Uber Sarkazm. U siebie w TLOU też miałem zero niedogodności, zero bugów, zero błędów, zaskoczeniem w sumie były jakiekolwiek narzekania na werję PC. 2. Yup. Been there, done that. To, że się wygaszają znaczy, że nie korzystasz z nich. Odzwyczaisz się. Też miałem ten boom na ultrwa wide. Wciąż mogę na C2 mieć UW w każdym momencie. Tak jak pisałem, na UW po czasie czuję się jakbym miał czapkę z daszkiem i nie da się tego zdjąć xd Zresztą, ja mam 42 oled metr przed nosem, Ty masz 48, wrażenia też mogą być odmienne. Przerabiałem to UW w kilkunastu tytułach i dla mnie nie jest to żaden dil brejker żeby na PC wskakiwać.
-
Doceniam, że starasz się wersję PC w korzystnym świetle przedstawić, no ale sam w to gram, napiszę prawdę, grałem w oryginał, grałem w remaster na PS4. Niestety nie jest tak kolorowo. 13700k, 4090. Gra działa w 120 fps. A na konsoli dla biedaków co? xd W ogóle podoba Ci się to ultra wide udawane? Gra nie została do tego stworzona. Czarne pasy góra-dół? Jak jeszcze miałem 3440x1440 LG ultra gear to było spoko, w sporej ilości gier naprawdę super mieć perspektywę 21:9. Ale później się czułem jakbym miał czapkę z daszkiem na głowie non stop i tego daszka nie idzie zdjąć Xd Mam C2 oled, mogę sobie zrobić 21:9 w dowolnym momencie, jednak wolę jak szwagry przewidziały, 16:9, mniej problemów, lepsza wizja reżysera...
-
Rozpierdalają mnie niektóre utwory w tej grze. Miałem do czynienia z Arch Enemy, Soilwork i Trivium wcześniej. Nie lubię nawet tych zespołów, wolę cięższe brzmienia, ale w tej gierce te ich kawałki są niesamowicie miodne i nawołujące do niszczenia
-
Pierdolisz jak potłuczony Jeśli faktycznie jesteś takim entertejmerem własnego ja jeśli idzie o giereczki i sprzęt to nie spoczniesz na laurach Sam dłuugo myślałem... a może tu ujebać trochę GHZ, a może tu torchę GB ramu ujebać, a może tutaj rdzeni/potoków logicznych na karcie graficznej... Ni chuja Nie słuchaj sumienia, kupuj 4090. Argument? Na hobby się nie oszczędza. Nieistotne czy ją w ogóle wykorzystasz. Ja np. grałem sobie ostatnio w Ghostwire Tokyo, Psychonauts 2, Fatal Frame 4... 4090 ziewał, 13700k ziewał, ale łeb zadowolony, że masz zderzacza hadronów w obudowie
-
Chodziło mi... po co taki złom kupować. żeby płakać?
-
To jak będziesz robił skok w kierunku 4090 to polecam model MSI GAMING X TRIO
-
@easye 4080 masz zamiar kupić? Wymieniając 4070Ti, które niedawno kupiłeś, wymieniając porządnego chyba 30xx? Opłacają Ci się takie obroty kartami?
-
Niedawno ukończyłem na normal. Drewno straszne, ale w sumie uwielbiam tego typu giery tamtej epoki. W ogóle pierwsza moja styczność z tą serią i podobało mi się. Kilamt i fabuła na plus. To jest najlepsza część?
-
Hardware Unboxed zrobili już materiał. Jak widać da się grać nawet bez bebechów z nasa, tylko trzeba przełknąć dumę i ustawić konsolowe high/medium
-
chryste xd Nie, że spec vs cena ratio. Po co w ogóle?
-
Tak, bierzesz sobie 16:9, 21:9, 32:9 wg własnego widzimisie, TV ma to wbudowane, tylko gierkę zresetuj i już, magia! Jak grasz w FPSy to co nie będzie najwygodniejszym rozwiązaniem? To, że się obsrasz, że jesteś cienki w FPSy, czy obsrasz się tylko dlatego, że 120Hz na OLED 42'' to za mało klatek na competitive gaming? Ja pierdolę. Weź już to po prostu kup.
-
Gratulacje. Ale nie siedź za blisko. 77 cali brzmi super, ale nawet jakość 4K nie uratuje Cię przed odsuwaniem sofy maksymalnie do tyłu. Do filmów to jakość jak sam sku.rwysyn. Ale lepiej na tym nie próbuj tak grać.
-
To ma coś z Sekiro wspólnego w ogóle? Pytam jako osoba, która nie śledzi co to za gierka jest. Jeśli tak to uszy mi się trzęsą.
-
Czemu niby te ramy nie chcą być posłuszne? Czytałeś czy płyta się z nimi lubi przed zakupem? I czy są Intel-optimised z nazwy? W sumie wydawać się to może nieistotne, ale kiedyś wsadziłem AMD-optimised do Intela i zarówno w Windowsie idle i w takiej prostej gierce jak Madison waliło mi bluskrinami na lewo i prawo, a nawet inne śmieszne akcje jak np. samoistne dublowanie pulpitu. Wróciły na Amazona szybciej niż przyjechały.
-
Nie będę się sprzeczał. Ale znam jakość GPU Gigabyte z pierwszej ręki. Pokaż zdjęcie karty. Ile tam masz w metalu, ile w plastiku?
-
No ale 5 lat jak zarejestrujesz to masz gwarancję chyba wszędzie teraz. W każdej firmie. Poza tym, serio!? Poprzedni gen GF w wykonaniu MSI śpiewał Tobie sonaty do księżyca? Obecnie na 4090 Gaming X Trio cisza jak makiem zasiał. Nie wiem, ewenement jakiś... Tym bardziej, że MSI liczy sobie premium cenę za ich gón.wo. W sumie to chyba trochę jestem fanbojem. I porównywanie, że 3080 śpiewał, a 3070 nie to już w ogóle nie ma sensu XD Mam nadzieję, że to rozumiesz?
-
Nie chcę być chu.jem, ale będę, chociaż życzę szczerze, żebyś nie miał perypetii o jakich ludzie piszą i jakie ja kiedyś miałem. Gigabyte to chyba naj.chujowsza firma od której można brać GPU (poza Palitem może). Tani są, owszem, ale później jak karta się grzeje to w obudowie słychać trzeszczenie, bo marnej jakości plastik i komponenty dostają wylewu. Oczywiście nie wiem jak sprawy mają się teraz z ich GPU, piszę na podstawie swoich doświadczeń z RTX 2080 Super. Druga sprawa, będziesz miał piszczące cewki, bo złamasay oszczędzają na każdym kroku, a jeśli nie będą piszczeć... Wygrałeś w totka Jakbym miał 4090 kupować to raczej tylko MSI. Miałem od nich 3090 Suprim X i mam obecnie 4090 Gaming X Trio. Nie jestem fanboyem tylko imo MSI nie żydzi na jakości komponentów. Abstrahując, Ghostwire Tokyo 4K max + max RT robi 71fps na 4090, jak DLSS na quality to już tak 100-120. Trochę źle te opcje traktują te karty.
-
Ta co była przecież. Tą to akurat szybciej kupiłem niż platformę. MSI 4090 GAMING X TRIO.
-
Pękłem i kupiłem. I w końcu skończyłem dziś zabawę z nowymi bebechami. Teraz czas na przywracanie świeżego Win11 do stanu używalności XD Pół dnia się z tym jebałem, głównie, żeby heatsink Arctic Freezer 2 360 dobrze leżał na tym ich nowym upgrade kicie pod LGA1700. Na styk te nowe Intele to kryje. Fotka z zakupów: Nie jest to aż tak karkołomny hardware jak u Tjeryego, ale śmiga pięknie, płyta ładnie odczytała XMP pmięci, VBS wyłączony na starcie, kabel 12VHPWR z oplotem, solidny i stabilny, że aż ciężko go w ogóle zgiąć. Dużo siedzenia w BIOSie i tweakowania i jeszcze więcej w samym W11, bo to co MS daje defaultowo to jest po prostu rzyg i zniewaga człowieka, który to kupuje. Aż zapomniałem ile roboty jest przy reinstalacji Windowsa, żeby to jakoś wyglądało, chodziło i nie wkurwiało. Żadnej gierki już dziś raczej nie odpalę bo się zmęczyłem XD Jutro ciąg dalszy, instalacja essential programów, wypierdalanie zbędnych i benchmarking. Póki co 13700KF obiciążony tysiącem zakładek przeglądarki Chrome zrobił max 36 stopni. Ramy - 26 ten bliżej CPU, 24 ten dalej. W pokoju ambient regulowany - 21. Wygląda to wszystko bardzo obiecująco.
-
Średnia klatek nie mówi wszystkiego. Przy procku ważne są wartości minimum, ile proc trzyma przez ułamki sekund. To oczywiste przecież. Chyba, że nie obchodzą Cię okazjonalnie stuttery, wtedy okej.
-
Tylko, że ciężko będzie ci to sprawdzić bo cholera wie na jakim etapie gry test był robiony. Chyba, że tam gdzieś jest to wyjaśnione, nie wiem, nie czytałem. Pora dnia po którejś z misji np. delikatnie zmieniona i już masz inne rezultaty na CPU. Tak jak pisałem, ciężko takie rezczy mierzyć. Najlepiej kupić najmocniejszy proc i mieć wszystko w dupie Właśnie sobie taką myśl sam zasiałem w głowie
-
Naturalnie, wierzę w to co piszesz, że ogólne odczucia z gierki są bardzo i to bardzo bardziej komfortowe na najsilniejszym procu, ale wkleiłem filmik, gdzie nawet 13900k klęka w Moralesie (jakiś skwer z drzewami między przecznicami) - klatki poleciały na 53 przy wykorzystaniu GPU 98%. U mnie ten sam scenariusz testowany kilkakrotnie - ponieważ to jedyna obcenie gierka, która żre CPU i do której mogę się odnieść - i pokazało mi 46 najmniej. Można napisać, że to 15% mniej, ale bardziej o tą overall stabilność animacji chodzi, bardzo szybkie ruchy kamery, mała amplituda między low i high. Ciężko te rzeczy uchwycić. Więkoszość kanałów (w tym np. Gamers Nexus) 1% i 0.1% low pokazuje programowo i można te ich wyniki o kant dupy rozbić. Fajnie właśnie takie rzeczy po prostu organoleptycznie sprawdzać. Chyba wezmę po prostu tego 13600K, w gierkach niby poziom 12900K i 4090 powinien się przy nim mniej nudzić też.