Skocz do zawartości

Kącik komputerowy wątek.


Recommended Posts

3 godziny temu, Adi777 napisał:

Ciekawe, kiedy pojawią się gry z taką grafiką, która wykorzysta te potwory, a nie jakieś RT i inne bzdety.

Już się pojawiły... mało to złe zoptymalizowanych tytułów? ;)

 

3 godziny temu, Kubakk napisał:

Ja tam czekam na rtx50xx , będzie gddr7

To jeszcze z rok albo i lepiej. Do pisania na forum I granie w fhd to już zintegrowane gpu podobno starczają. 

Link do komentarza
Udostępnij na innych stronach

3 godziny temu, PanKlor napisał:

Już się pojawiły... mało to złe zoptymalizowanych tytułów? ;)

 

To jeszcze z rok albo i lepiej. Do pisania na forum I granie w fhd to już zintegrowane gpu podobno starczają. 

Jak mam czas to jedynie civ6 odpalę , komputer daje radę , przy cp2077 na ultrasach full hd potrafiło jednak już spaść poniżej 30fps (średnio 45-50). Wg mnie optymalne wydajność/cena są karty xx60 / xx60ti , ew. xx70 - potem robi się drogo , prądożernie i ogólnie do pisania na forum nie ma sensu :D 

 

Link do komentarza
Udostępnij na innych stronach

2 minuty temu, Kubakk napisał:

Jak mam czas to jedynie civ6 odpalę

Dawno nie odpalałem bo wiem jak to się kończy. Chociaż chyba wolałem V. 

3 minuty temu, Kubakk napisał:

cp2077 na ultrasach full hd potrafiło jednak już spaść poniżej 30fps (średnio 45-50).

Chyba ultra bez RTX? 

 

3 minuty temu, Kubakk napisał:

Wg mnie optymalne wydajność/cena są karty xx60 / xx60ti , ew. xx70 - potem robi się drogo , prądożernie i ogólnie do pisania na forum nie ma sensu :D 

Każdy ma swój próg bólu jeżeli chodzi o wydatki na sprzęt. Poza tym ta opłacalność zmienia się trochę z generacji na generację. Brutalna prawda jest taka, że od czasów GTX1060 za 1200 PLN sporo czasu minęło. Dodatkowo w takich singlowych tytułach jak cbp2077 to te nowe karty robią przeciąg (3440x1440, full detal + RTX na maksa + DLSS3 FG) i 4070ti wypluwa 80-100 fps.  

Link do komentarza
Udostępnij na innych stronach

Napisano (edytowany)

Nie wiem jakie macie procesory, ale u mnie Ryzen 7 5800X3D i wedle różnych czytanych źródeł mówi, że do tego CPU to GTX 4070Ti jest Max.

Jesli nie kłamią to niechaj ten procek zarobi na swój ZUS a nie się leni. Gdybym wiedział, że zieloni tak szybko pójdą po rozum do głowy i wzmocnią obecną serie 40xx to jeszcze bym poczekał. 

Inna sprawa, że NVidia ostatnio mocno dokłada do obecnych gier by korzystały z dobrodziejstwa Ray Tracingu i DLSS 3.

Ostatnio się chwalili ze już 500 Aplikacji i ger korzysta ze wsparcia DLSS i RTX

Radek w odpowiedzi opublikował darmo kod źródłowy swojego RDNA 3 by zainteresowani mogli go wykorzystać/użyć. 

 

30 flaps`ów CP 2077 nie przekracza mój 7800 XT przy włączeniu wszystkiego na full ... moze to już wina CPU?

Edytowano przez Bogusław 66
Link do komentarza
Udostępnij na innych stronach

2 godziny temu, PanKlor napisał:

Przecież to bzdura. Wszystko zależy od tytułu i rozdzielczości.

Nie mogę teraz znaleźć tego testu. 

Gdy ukazał się ten procek był małą sensacją i ktoś przetestowano różne CPU na najbardziej popularnych GPU na co najmniej 20 grach a moze i więcej.  

Chciał pokazać, ile moze stosunkowo niepozorny procesor po dodaniu 3D V-Cache.

Były tam różne tabelki i porównania, w podsumowaniu po uśrednieniu wszystkiego wyszło ze przy mocniejszym GPU sam procek moze być już wąskim gardłem, był też dopisek, że krokiem do przodu będzie Ryzen 9 ale lepszym stosunkiem możliwości do ceny będzie przejście na AM5 Ryzen 7 7800X3D ..... wtedy były tylko te dwa procki z powiększoną pamięcią L3

będę jeszcze tego szukał 

Link do komentarza
Udostępnij na innych stronach

Gwarantuję CI, że jak spróbujesz te same 20 gier odpalić w 4k albo i wyższej rozdzielczości to ten CPU nie będzie problemem. 

 

1 minutę temu, Bogusław 66 napisał:

Były tam różne tabelki i porównania, w podsumowaniu po uśrednieniu wszystkiego wyszło ze przy mocniejszym GPU sam procek moze być już wąskim gardłem,

Czyli truizm.... zamiast inwestować w mocniejsze GPU można obniżać rozdzielczść. Dojdziesz do momentu gdzie procesor jest wąskim gardłem. 

 

BTW mam 5900X (bez 3d cache) i gdyby nie zdrowy rozsądek to bym kupił RTX 4080 albo i wyżej przy 3440x1440. 

Link do komentarza
Udostępnij na innych stronach

1 godzinę temu, PanKlor napisał:

Gwarantuję CI, że jak spróbujesz te same 20 gier odpalić w 4k albo i wyższej rozdzielczości to ten CPU nie będzie problemem. 

 

Czyli truizm.... zamiast inwestować w mocniejsze GPU można obniżać rozdzielczść. Dojdziesz do momentu gdzie procesor jest wąskim gardłem. 

 

BTW mam 5900X (bez 3d cache) i gdyby nie zdrowy rozsądek to bym kupił RTX 4080 albo i wyżej przy 3440x1440. 

4080 ma wymaganą u mnie [pod TV ilość vRAMu ale jak to piszesz "zdrowy rozsadek" zadecydował.

 

Link do komentarza
Udostępnij na innych stronach

16 godzin temu, Adi777 napisał:

Są nieźle wyglądające gry, ale kiedy, w której produkcji był jakiś przełom? Ja sobie żadnej nie przypominam, poza 2007 rokiem i wiadomą grą ;)

2023 chociażby Baldura gate 3 przełom na rynku i generalnie to jest grą która po prostu wzięła i wyznaczyła swoje standardy Wcześniej przełomem były obie części Kratosa. Rdrd 2 jeszcze wcześniej. 

Link do komentarza
Udostępnij na innych stronach

15 godzin temu, Bahzell napisał:

2023 chociażby Baldura gate 3 przełom na rynku i generalnie to jest grą która po prostu wzięła i wyznaczyła swoje standardy Wcześniej przełomem były obie części Kratosa. Rdrd 2 jeszcze wcześniej. 

Chyba raczysz żartować. God of War przełomem? Ciekawe w czym, bo na pewno nie graficznie. Zresztą, w żadnym aspekcie nie była przełomem. RDR 2 tak samo, ładna, i tyle. Baldur's Gate 3 wygląda nieźle.

Edytowano przez Adi777
Link do komentarza
Udostępnij na innych stronach

8 minut temu, Adi777 napisał:

Chyba raczysz żartować. God of War przełomem? Ciekawe w czym, bo na pewno nie graficznie. Zresztą, w żadnym aspekcie nie była przełomem. RDR2 tak samo, ładna, i tyle. Baldur's Gate 3 wygląda nieźle.

Nie, nie racze. Czemu miałbym? Były to gry przełomowe. Ustanowiły standardy i są punktem odniesienia dla nowych gier. Natomiast bg3 zmienił sposób wytwarzania gier i podejście developerów do procesu. Plus oczywiście zdefiniował na nowo na co pozwala crpgie tworząc nowy gatunek, albo ożywiając stary. Tekken 7 także był gra przełomowa na przykład. Czy był/jest najlepsza bijatyka to jeden rabin powie tak drugi inaczej, ale przełomem był.

Żadnej gry nie oceniam przez pryzmat grafiki. Wystarczy odpalić mody do skyrima i żadna aktualna gra nie ma szans graficznie. To co się liczy dla mnie to sposób prowadzenia rozgrywki, fabuła, postacie, historia. 

Edytowano przez Bahzell
Link do komentarza
Udostępnij na innych stronach

@Bahzell Jakie standardy ustanowiły dwie części God of War? Masz na myśli tę z 2018 roku i Ragnarok? RDR 2 i standardy? Ale czego? Konkrety, please.

Pisać to sobie można byle co. 

Skyrim na modach wygląda sztucznie. To już wolę surowy oryginał. Chyba, że są takie mody, które nie zmieniają kolorystyki oryginału, tylko samą jakość grafiki.

Dla mnie też liczy się wszystko to, co  napisałeś. Miałem na myśli grafikę - wolno się posuwa do przodu, za wolno. Już nie wspomnę o animacjach. Fizykę i AI z litości przemilczę.

Na co idzie moc najwydajniejszych kart i procesorów? Na same klatki i skopaną optymalizację? Właśnie o to mi chodzi.

 

Edytowano przez Adi777
Link do komentarza
Udostępnij na innych stronach

Widziałem wczoraj porównanie na jakiejś gierce i rtx4070 super miał ~100fps przy ~60fps rtx3080 , prądowo ~200W vs ~350W - spora różnica ;)

W komentarzach jednak ludzie pisali ,że tyle fps bo "sztucznie" robione i podobno widać w jakości - ktoś przesiadał się z rtx30xx na rtx40xx i może potwierdzić podobne spostrzeżenia ?

Link do komentarza
Udostępnij na innych stronach

1 godzinę temu, Kubakk napisał:

W komentarzach jednak ludzie pisali ,że tyle fps bo "sztucznie" robione i podobno widać w jakości - ktoś przesiadał się z rtx30xx na rtx40xx i może potwierdzić podobne spostrzeżenia ?

Tak po krótce - zdarza się w nowych grach z DLSS (nieważne czy z FG czy bez), że czasami coś jest lekko rozmyte albo jakiś glitch się pojawi. Czasami to kwestia sterownika albo miejsca i kąta w jakim staniemy. Nie zauważyłem prawidłowości żadnej na razie. Do gier AAA uważam, że FG z DLSS 3.5 to świetny wynalazek. Można oczywiście doaptrywać się dalej odrobinę mniejszej responsywności czy też tych błędów w grafice. Są pewnie tacy którym to przeszkadza. Mi osobiście nie. Natomiast czy należy łykać jak pelikan takie porównania jak robi Nvidia o któych pisałeś powyżej - też nie do końca. Te nowe karty nie mają takiej wydajności jak te z którymi są porównywane. Wymaga to wsparcia w konkretnych tytule i akceptacji tego co napisałem powyżej. 

Link do komentarza
Udostępnij na innych stronach

Dnia 19.12.2023 o 16:57, Bogusław 66 napisał:

Ja rozważałem biały Dell Alienware AW3423DWF OLEDa,

Mój obecny Dell S3422DWG znalazł nowego użytkownika w rodzinie a następcą został rozważany przez Ciebie Alienware. Jutro ma być. Formatu nie zmieniam więc nie miałem tu dylematu. 🙂

Link do komentarza
Udostępnij na innych stronach

16 godzin temu, Bogusław 66 napisał:

Samsung szaleje z serią Odyssey

Rozważałem też G8 albo G9 obecne OLED. Dell jako jedyny daje gwarancję na panel (3 lata) oraz wypuszczają częściej poprawki firmware. G8 ma jakiś problem z wybudzaniem na DisplayPort. Dodatkowo złącza chyba ciut bardziej mi odpowiadały w Dellu (żadne tam miniDP/HDMI itp.). No i G9 to chyba ciut za szeroki nawet jak na moje biurko (140 cm) - muszą zmieścic sie jeszcze obok 1/2 laptopy. Z tego względu kupiłem tani soundbar ktory lezy pod monitorem, zamiast 2 głośników stojących na krawędzi biurka. 

Link do komentarza
Udostępnij na innych stronach

A wiec ....  premiera 4070 Ti z dopiskiem SUPER  już za nami. U nas skromnie z testami ale na zachodnich stronach ich nie brakuje.

Sama karta już nie jest tak do przodu jak zamiennik 4070 na 4070 SUPER który zyskał sporo.  NV znów pokazała ze nie pozwoli się pobić w najbardziej opłacalnym segmencie Radkowi 7800 XT  który był lepszy we wszystkich grach przy standardowym graniu (szczególnie starszych bez wspomagania nowinek od Zielonych) teraz kolejna karta z dopiskiem SUPER już nie jest tak mocno "super", ciekawe jaki progres zyska 4080 SUPER?

-----------

22 godziny temu, PanKlor napisał:

Rozważałem też G8 albo G9 obecne OLED

jest jeszcze nie opłacalny cenowo  Predator X  od Acera

-----

Gdyby w PL była dostępna biała wersja Della to kto wie, kto wie ..... 

Link do komentarza
Udostępnij na innych stronach

1 minutę temu, Bogusław 66 napisał:

Gdyby w PL była dostępna biała wersja Della to kto wie, kto wie ..... 

Esteta... już to chyba pisałem ;)

Krótko wczoraj pograłem - jest świetnie, kolory, czerń, zero smuzenia, cud, miód i orzeszki. Jak ktoś jest wymagający i dużo pracuje z tekstem to czcionki mogą delikatnie drażnić. 

Link do komentarza
Udostępnij na innych stronach

Już dawno znudził mi się ciemny kolor.  Oczywiście monitor musiałem zaakceptować w ciemnym odcieniu, co zrobić? ale gdzie jest to możliwe zachodzą zmiany kolorystyczne.

Dell i tak ma lepiej widziane z bliska czcionkę od paneli LG i Asus, ale przez soczewki w powłoce ekranu "łapie" światło z zewnątrz. Myślę, że to szczegóły które są marginalne i nie będą nam przeszkadzały.  Nie wiem jak z odświeżaniem panelu Samsunga, bo u LG od czasu do czasu błyśnie mi ekran, żeby zapalić i zgasić zapominalskie subpiksele. 

Dolną belkę ukryłem, chociaż LG chwali się kilkoma procesami przeciwdziałania wypalaniu.  A czas pokarze jak te panele zniosą użytkowanie.

Link do komentarza
Udostępnij na innych stronach

Dnia 24.01.2024 o 22:04, Bogusław 66 napisał:

Już dawno znudził mi się ciemny kolor.

Obudowę mam białą, 3 z rzędu więc rozumiem, klawiaturę też... ale nie zabijam się o białe graty do kompa albo monitor. 

 

Dnia 24.01.2024 o 22:04, Bogusław 66 napisał:

ale przez soczewki w powłoce ekranu "łapie" światło z zewnątrz.

Jest znośnie ale mieszkam na parterze więc nie mam tu jakiegoś mocnego słońca (zobaczymy jeszcze monitor jak sie cieplej zrobi). 

Dnia 24.01.2024 o 22:04, Bogusław 66 napisał:

Nie wiem jak z odświeżaniem panelu Samsunga, bo u LG od czasu do czasu błyśnie mi ekran

Na desktopie nie zdarzyło mi się. Czasami jakieś dziwne efekty w nowym Prince of Persia ale ta gra jest tak zepsuta technicznie, że nie łączę tego z monitorem. Za to sam klimat platformówkowy - świetny. 

 

Dnia 24.01.2024 o 22:04, Bogusław 66 napisał:

Dolną belkę ukryłem

Ja też. Wszystkie nowe OLED i TV mają chyba takie funkcje. Dlatego powinny być cały czas włączone do prądu. Fakt, że w monitorze to lekko przeszkadza jak raz na kilka h wyskoczy okienko z przypominaczem. 

 

Dnia 24.01.2024 o 22:04, Bogusław 66 napisał:

A czas pokarze jak te panele zniosą użytkowanie.

Wolałbym, żeby pokazał a nie karał 😉

Link do komentarza
Udostępnij na innych stronach

  • 2 weeks later...

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gość
Odpowiedz...

×   Wkleiłeś treść z formatowaniem.   Przywróć formatowanie

  Only 75 emoji are allowed.

×   Twój link będzie automatycznie osadzony.   Wyświetlać jako link

×   Poprzedni post został zachowany.   Wyczyść edytor.

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Utwórz nowe...