tjery 1 137 Opublikowano 22 Grudnia 2022 Udostępnij Opublikowano 22 Grudnia 2022 DLSS pewnie nie będzie, bo sponsoring AMD, ale i tak by nic nie dał, bo jak są spadki to przez CPU (użycie GPU na jakieś 70-80%). Cytuj Odnośnik do komentarza
KrYcHu_89 2 229 Opublikowano 22 Grudnia 2022 Udostępnij Opublikowano 22 Grudnia 2022 Kilka nowych gier na PC ma problem z użyciem CPU, dziwny trend :/. Cytuj Odnośnik do komentarza
Ta odpowiedź cieszy się zainteresowaniem. MarekCol 366 Opublikowano 22 Grudnia 2022 Ta odpowiedź cieszy się zainteresowaniem. Udostępnij Opublikowano 22 Grudnia 2022 Zrobiłem sobie dziś prezent na gwiazdkę. Do Oleda C2 42 przyda się trochę dodatkowej pary, 3090 Suprim X idzie zatem na Ebay. 4090 też chciałem Suprima, ale z różnych przyczyn padło na Gaming X Trio. Mam nadzieję, że będzie dobra pod względem kultury pracy Sama machina mega masywna, grubas straszny. Jakość wykonania po szybkich oględzinach bardzo dobra. Mam nadzieję, że 11700k stock ją wykarmi. Jensen, tylko nie wydaj tych pieniędzy na głupoty! 7 7 Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 22 Grudnia 2022 Udostępnij Opublikowano 22 Grudnia 2022 Gratuluję zakupu Będzie Pan zadowolony 1 Cytuj Odnośnik do komentarza
tjery 1 137 Opublikowano 22 Grudnia 2022 Udostępnij Opublikowano 22 Grudnia 2022 @MarekCol też mam 3090 Suprim X na sprzedaż, ale tak już leży jakiś czas aż złapię wenę, żeby gdzieś wrzucić. Powiedz mi, za ile orientacyjnie myślisz go wystawić? Cytuj Odnośnik do komentarza
MarekCol 366 Opublikowano 22 Grudnia 2022 Udostępnij Opublikowano 22 Grudnia 2022 Na Ebayu tak lataja 800-900 funtów. Tak bym celował chyba. Pytanie z innej beczki... Podłączyłem kartę, ale ostrzeżenie było na kartce żeby używać 3 osobnych 8-pin PCIe kabli bezpośrednio z zasilacza do tej dostarczonej przejściówki. 3090 miałem na 2 kablach tylko - 1x PCIe bezpośrednio z zasilacza i drugi, który się rozgałęział na 2x PCIe, "piggy tail" to nazywają, o takie coś: Pytanie czy podłączając adapter pod 2 takie wychodzące z jednego tylko gniazda na zasilaczu (+1 osobny kabel) czegoś sobie nie spier.dole Poważnie muszą być 3 osobne 8-pin? Na zasilaczu mam chyba tylko 2 wyjścia oznaczone VGA1 oraz jedno oznaczone VGA2. W razie czego można podpinać ten trzeci osobny kabel pod VGA2? Czy muszę zasilacz nowy? Cytuj Odnośnik do komentarza
Ukukuki 6 871 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Powiem wam ,że w 1440/UW na 4080 to wszystko tak ładnie zapierdziela 1 Cytuj Odnośnik do komentarza
tjery 1 137 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 (edytowane) 4 godziny temu, Ukukuki napisał: Powiem wam ,że w 1440/UW na 4080 to wszystko tak ładnie zapierdziela Więc jednak chciwa Nvidia 12 godzin temu, MarekCol napisał: Na Ebayu tak lataja 800-900 funtów. Tak bym celował chyba. Pytanie z innej beczki... Podłączyłem kartę, ale ostrzeżenie było na kartce żeby używać 3 osobnych 8-pin PCIe kabli bezpośrednio z zasilacza do tej dostarczonej przejściówki. 3090 miałem na 2 kablach tylko - 1x PCIe bezpośrednio z zasilacza i drugi, który się rozgałęział na 2x PCIe, "piggy tail" to nazywają, o takie coś: Pytanie czy podłączając adapter pod 2 takie wychodzące z jednego tylko gniazda na zasilaczu (+1 osobny kabel) czegoś sobie nie spier.dole Poważnie muszą być 3 osobne 8-pin? Na zasilaczu mam chyba tylko 2 wyjścia oznaczone VGA1 oraz jedno oznaczone VGA2. W razie czego można podpinać ten trzeci osobny kabel pod VGA2? Czy muszę zasilacz nowy? Ja nic nie zmieniałem, tak jak miałem wpiętą 3080Ti tak samo wpiąłem 4090 ASUS TUF OC, tzn. oczywiście plus jedno złącze z drugiego kabla, które nie było wykorzystywane przy 3080Ti. I wszystko gra, ale oczywiście nie dam ręki, że u Ciebie będzie tak samo szczerze to nie spotkałem się nigdzie z tymi zaleceniami, o których mówisz. Edytowane 23 Grudnia 2022 przez tjery Cytuj Odnośnik do komentarza
Michał102 870 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Panowie, a te nowe karty serii 40xx są kompatybilne ze starszymi płytami B550? Cytuj Odnośnik do komentarza
Figuś 21 139 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 dlaczego miały by być niekompatybilne? Cytuj Odnośnik do komentarza
Michał102 870 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Pytam, bo nie jestem jakimś pecetowym maniakiem i dopiero składam swojego pierwszego kompa do gier. Obecnie mam płytę MSI B550 tomahawk, procka Ryzen 5600g, ram 16gb 3600 ddr4, no i miałem do tego brać RTX 3070 lub 3080. Tak się jednak zacząłem zastanawiać, czy nie lepiej dołożyć kasy i kupić kartę generację wyżej jesli byłaby ona kompatybilna z moimi klamotami. Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Bedzie kompatybilna tylko zasilacz weź minimum 850w. 5 godzin temu, Ukukuki napisał: Powiem wam ,że w 1440/UW na 4080 to wszystko tak ładnie zapierdziela Ile jest fosow BF 2042 z RT? To wazne. 1 Cytuj Odnośnik do komentarza
Ukukuki 6 871 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 26 minut temu, easye napisał: Bedzie kompatybilna tylko zasilacz weź minimum 850w. Ile jest fosow BF 2042 z RT? To wazne. Nie chce mi się tego szrota pobierać na pewno dużo xd Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 No na filmach gra jest tak beznadziejnie zoptymalizowana że maks 100-120 klatek. Teraz z DLSS mam skaczące 60-80. Byłby upgrade, ale 6K... Cytuj Odnośnik do komentarza
Czoperrr 5 014 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Zasilacz to lepiej 1000W. Kumpel teraz składał Peceta z Radeonem RX 6900 XT i na 850W mu komp się restartował, może coś zjebał przy składaniu bo teoretycznie 850 powinno wystarczyć na te mocniejsze karty. Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Zasilacz to lepiej 1000W. Kumpel teraz składał Peceta z Radeonem RX 6900 XT i na 850W mu komp się restartował, może coś z(pipi)ał przy składaniu bo teoretycznie 850 powinno wystarczyć na te mocniejsze karty.Coś z(pipi)ał. Ja mam i9 wykręconą która pobiera 260W + 4090 pobiera 450. Masz 750 całość. Więc 850W spokojnie na jego zestaw. 1 Cytuj Odnośnik do komentarza
Figuś 21 139 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 przy zasilaczu to jeszcze ważna jest jego klasa sprawności, to topowych kart minimum 80 plus gold które ma minimum 90% sprawność Cytuj Odnośnik do komentarza
ASX 14 593 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 dobrze jest mieć zapas mocy na zasilaczu, żeby go nie żyłować pod obciążeniem. IMO jeśli dzisiaj kupować kompa to lepiej zainwestować w 1000w Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Ale policz najpierw na co miałby zylowqc zasilacz 850, bo nawet z paroma dyskami podłączonymi wciąż masz zapas przy 4080. No chyba że różnych w cenie nie ma żadnej. Cytuj Odnośnik do komentarza
ASX 14 593 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Sam PIPOLINO piszę że procek i GPU pobiera w stresie łącznie 750W. A zasilacz ma 850W. I to już jest żyłowanie zasilacza. Optymalnie poleca się by zostawić zapasu jakieś 25%-30% zapasu mocy. A niektórzy mówią nawet o 40%-50%. Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Ale Pipolino ma mocna i9 wykręcona na 5Ghz i rtx 4090... Rozmawiamy o zupełnie innych komponentach... Z takim podejściem to niech 1200w bierze, może za 5 lat jak bedzie zmieniał podzespoły to się przyda. Cytuj Odnośnik do komentarza
Michał102 870 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 (edytowane) Tak sobie patrzę po jutubie i ta 4090 z moim prockiem nawet jakoś działa. Oczywiście czym wyższa rozdzielczość tym lepiej, ale to dla mnie mega plus jakby gierki chodzily w 4K. Komp i tak jest podpięty pod oleda LG C1. Edytowane 23 Grudnia 2022 przez Michał102 Cytuj Odnośnik do komentarza
easye 3 332 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 No 4090 to jest olbrzymi skok generacyjny. Karta marzenie, ale przede mną jeszcze trochę hipoteki do spłacenia... Cytuj Odnośnik do komentarza
PiPoLiNiO 784 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 No ja mam u siebie 1000W 80 Plus Platinum, właśnie ze względu na podkręcanie i jakąś tam rezerwę mocy. Inna rzecz, że w grach i tak nigdy nie ciągnie to całej mocy. Więc u mnie wychodzi w grach koło 500-550W poboru. 1 Cytuj Odnośnik do komentarza
KrYcHu_89 2 229 Opublikowano 23 Grudnia 2022 Udostępnij Opublikowano 23 Grudnia 2022 Nvidia zaleca 750W do 4080 i 850W do 4090 minimum. 3 godziny temu, Michał102 napisał: Pytam, bo nie jestem jakimś pecetowym maniakiem i dopiero składam swojego pierwszego kompa do gier. Obecnie mam płytę MSI B550 tomahawk, procka Ryzen 5600g, ram 16gb 3600 ddr4, no i miałem do tego brać RTX 3070 lub 3080. Tak się jednak zacząłem zastanawiać, czy nie lepiej dołożyć kasy i kupić kartę generację wyżej jesli byłaby ona kompatybilna z moimi klamotami. Ja ciąglę poluję na 4080 taniej niż teraz, bez ciśnienia i 3080 mam na sell jak coś do końca roku. Płyta główna jest kompatybilna, spokojnie :). Możesz do niej włozyć nawet nowego Ryzenka 5800X3D, po aktualizacji bioska. Mam taką samą. 47 minut temu, easye napisał: No 4090 to jest olbrzymi skok generacyjny. Karta marzenie, ale przede mną jeszcze trochę hipoteki do spłacenia... Jeszcze walczę z myślami nad 4090, ale tak: nowy zasilacz by się przydał, bo mam 750W, nowa obudowa, bo ta jest za mała itd .itp. ehh życie Pecetowca Cytuj Odnośnik do komentarza
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.
Uwaga: Twój wpis zanim będzie widoczny, będzie wymagał zatwierdzenia moderatora.