FirstEver Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego Wczoraj ponownie udało mi się wskoczyć do TOP 100 w rankingu 3DMark Speed Way na karcie GeForce RTX 4070 Ti. Nie byłoby w tym nic szczególnego, gdyby nie fakt, że dokonałem tego na platformie z 2011 roku. Nie wiem jak, ale… Moja platforma z 2011 roku uzyskała ex aequo 24 wynik na 74115 dostępnych — dokładnie tyle samo, co Intel Core i9-14900KF podkręcony do 6.2 GHz. * Ta sama osoba z Core i9 zamieściła wiele prób — najlepsza 6439 pkt jest tylko o 0.22 FPS lepszy niż u mnie na starym Xeonie. ** Biorąc pod uwagę wyłącznie najlepszy wynik każdej osoby, podkręcony Core i9 znajduje się na 14 miejscu, a ja zaraz za nim. Ucinając spekulacje — nic nie zostało „zhackowane”. Wynik jest w pełni zweryfikowany przez 3DMark: [Zawartość widoczna tylko dla zalogowanych użytkowników] Można się teraz zastanawiać… Ekstremalnie podkręcony procesor wykonany w 7 nm osiąga praktycznie identyczny wynik jak mój 22 nm CPU — przy czym moje GPU pracuje z taktowaniem niższym o ponad 100 MHz. Na koniec spójrzcie na oficjalne TOP 100 wyników 3DMark Speed Way dla GeForce RTX 4070 Ti — [Zawartość widoczna tylko dla zalogowanych użytkowników]. Ten komputer chyba zostanie ze mną do końca życia (będę tylko wymieniał GPU na nowe). starcraft2fan lubi to Cytuj
podlos Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego Jakby super wynik tylko daj jeszcze dla porównania jakiś test 3dmarka gdzie cpu ma coś do roboty. Cytuj
FirstEver Opublikowano 21 Lutego Autor Zgłoś Opublikowano 21 Lutego 22 hours ago, podlos said: Jakby super wynik tylko daj jeszcze dla porównania jakiś test 3dmarka gdzie cpu ma coś do roboty. Twoje zdanie wprowadza w błąd, bo dotyczy gier typu Civilization lub Cities: Skylines - tam warto posiadać możliwie najwydajnieszy CPU. Natomiast 95% nowych gier do optymalnej pracy wymaga szybkiego GPU oraz CPU ze średniej półki. Topowe CPU pomagają uzyskać więce FPS w rozdzielczościach niższych niż 4K. Dla przykładu uruchomiłem Cyberpunk 2077 w 4K w ustawieniach Ray Tracing: Overdrive z Path Tracing i mamy obciążenie CPU na poziomie 50-55%. Są oczywiście momenty gdzie na ułamek sekundy obciążenie CPU potrafi podskoczyć do 90-95%, ale średnia to około 53%. Pewnie ktoś napisze, że z powodu tych "skoków" obciążenia mogę mieć mikro-przycięcia FPS - teoretycznie tak, ale to dotyczy każdej platformy przy tych ustawieniach. Quote W pomieszczeniu użycie CPU nigdy nie przekracza 50%. [Zawartość widoczna tylko dla zalogowanych użytkowników] Quote Na ruchliwej ulicy użycie CPU wzrasta średnio do 50-55%, ale pojawiają się też skoki 70-95% - pewnie podczas ładowania assetów. [Zawartość widoczna tylko dla zalogowanych użytkowników] ** Screenshoty wyglądają dziwnie, bo w grze mam aktywowany tryb HDR. Podsumowując... Korzystając ze starszej platformy na idealnie zoptymalizowanym systemie, w grach przy najwyższych ustawieniach graficznych i rozdzielczości 4K stracimy około 3-8% FPS. Mogę nawet zaryzykować stwierdzeniem, że różnica w rozdzielczości 8K będzie jeszcze niższa i wyniesie już marginalne 2-5%. Za chwilę dodam jeszcze Battlefield 6... Cytuj
podlos Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego Zobacz sobie na użycie gpu. Nawet w 4K nie jest 100% bo cpu blokuje. Cytuj
Achon Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego 64 fps, no fajnie. Ale chyba przy RTX 5090 ten XEON zadławiłby się. Cyberpunk to nawet na minipc AMD Ryzen 9 HX 370 śmiga 100fps na zintegrowanej karcie Radeon 890M GPU MiniPc, Steamdecki itp. To jest chyba kierunek, w którym podążamy, jeśli idzie o granie w obecnych czasach. Duże masywne, prądożerne komputery, będą kupowane tylko do profesjonalnych zastosowań. Jak rynek AI się nie opamięta, to za rok jedyne 15 tys. będzie kosztować nowy PC z 32Gb pamięci. (Mogę się mylić, nie jestem graczem) Cytuj
Widzior Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego Quad-Channel pamięci RAM zrobił swoje Cytuj
FirstEver Opublikowano 21 Lutego Autor Zgłoś Opublikowano 21 Lutego 5 hours ago, Achon said: Cyberpunk to nawet na minipc AMD Ryzen 9 HX 370 śmiga 100fps na zintegrowanej karcie Radeon 890M GPU MiniPc, Steamdecki itp. To jest chyba kierunek, w którym podążamy, jeśli idzie o granie w obecnych czasach. Bądźmy poważni, nie porównuj iGPU do dedykowanej karty gdzie wspomniałem o ustawieniach 4K z Ray Tracing: Overdrive. 6 hours ago, podlos said: Zobacz sobie na użycie gpu. Nawet w 4K nie jest 100% bo cpu blokuje. Średnie obciążenie mojego RTX 4070 Ti wynosi 95%, więc tracę około 3-5% w stosunku do maszyny z nowym wydajnym procesorem. W rozdzielczości 1080p i niższych ustawieniach graficznych ilość FPS znacznie wzrośnie, ale zwiększy się też strata spowodowana użyciem starego CPU (pewnie wyniesie 35%). 5 hours ago, Achon said: 64 fps, no fajnie. Ale chyba przy RTX 5090 ten XEON zadławił by się. Na RTX 5090 i najwyższych ustawieniach w 4K pewnie traciłbym około 15-20% wydajności, co zamieniło by tą kartę w "RTX 5085" (strata pieniędzy). Zwiększając rozdzielczość do 8K, ta strata powinna ponownie spaść poniżej 10%. Znalazłem film na YouTube gdzie RTX 5090 w 8K i FrameGeneration x4 uzyskuje ok. 75FPS (zakładam, że przy takich samych ustawieniach na moim Xeonie miałbym ok. 70FPS). starcraft2fan lubi to Cytuj
podlos Opublikowano 21 Lutego Zgłoś Opublikowano 21 Lutego W 4K jako tako pograsz ale jest jeden problem. Odpada DLSS / FSR bo od razu zaorasz procka. Do tego gry są różne. W cyberpunku może i to w miarę działa ale inne mogą być bardziej wymagające co do cpu. Cytuj
FirstEver Opublikowano 22 Lutego Autor Zgłoś Opublikowano 22 Lutego 3 hours ago, podlos said: W 4K jako tako pograsz ale jest jeden problem. Odpada DLSS / FSR bo od razu zaorasz procka. Do tego gry są różne. W cyberpunku może i to w miarę działa ale inne mogą być bardziej wymagające co do cpu. Nie wiem skąd bierzesz te informacje, ale u mnie jest odwrotnie... Po aktywacji DLSS obciążenie procesora jest niższe (poza tym DLSS jest realizowany na GPU a nie CPU). Nie wiem co za "gry" są bardziej wymagające od Cyberpunk w 4K i ustawieniach Ray Tracing: Overdrive... co autor miał na myśli? Poniżej moje dwa filmy gdzie testowałem technologię NVIDIA Smooth Motion z najwyższymi możliwymi detalami i 4K w PUBG i Fortnite. * W pierwszym filmie jest problem z dźwiękiem tzn. komentarz odtwarzany jest tylko w jednym kanale. ** Nie posiadam dedykowanej karty do przechwytywania obrazu i poniższe filmy nagrywałem programem od NVIDII z max bitrate, a to powodowało obniżenie wydajności o ok. 8%. *** Nie wiem dlaczego, ale w Fortnite na UE 5.4 miałe niższe latency z aktywowanym Smooth Motion o 2-3ms (generowanie dodatkowych klatek powinny zwiększać opóźnienie). **** W tym roku już nie mogę uruchomić Fortnite, bo Epic Games dodał nowy system anti-cheat i trzeba posiadać moduł TPM 2.0 (obecnie gra już się nie uruchamia). Na koniec jeszcze Battlefield 6 w rozdzielczości 4K i ustawieniach OVERKILL. Wykorzystanie GPU również wysoko ok. 95%, a procesora ponad 65%, średni FPS powyżej 110 FPS. Na starej platformie spadki FPS (1%) dochodzą do 85FPS, ale nadal jest to przyzwoita wartość. [Zawartość widoczna tylko dla zalogowanych użytkowników] [Zawartość widoczna tylko dla zalogowanych użytkowników] Przetestowałem też gry Alan Wake 2, Kingdom Come: Deliverance II, The Last of Us: Part II Remastered oraz Vampire: The Masquerade - Bloodlines 2 i wszystkie działają idealnie w 4K i najwyższych detalach. Oczywiście używam DLSS na Quality i FG x2 jeżeli jest dostępne. Po ukończeniu KCD2 postanowiłem się "pobawić" i trochę polatać jak w Matrix - powodowało to ogromne przeciążenia silnika gry. Wszystko to w 4K i najwyższych detalach na moim zombie-Xeonie Cytuj
FirstEver Opublikowano 22 Lutego Autor Zgłoś Opublikowano 22 Lutego 19 hours ago, Widzior said: Quad-Channel pamięci RAM zrobił swoje Pewnie masz rację Jakiś czas temu kupiłem jeszcze szybsze moduły DDR3-2666 CL12 i w trybie Quad Channel potrafiły one przegonić konfigurację Dual Channel DDR5. Obecnie nowe procesory Intel Core Ultra oraz AMD Ryzen 9000 w połączeniu z szybkimi pamięciami DDR5 osiągają transfery przekraczające 100 GB/s (kwestię cen przemilczę). [Zawartość widoczna tylko dla zalogowanych użytkowników] Żaden producent nie zdecydował się wypuścić zestawu Quad Channel DDR3-2666 CL12, dlatego kupiłem dwa zestawy Dual Channel (2 × 2 × 8 GB) i uruchomić je jako Quad z identycznymi timingami. Na modułach G.Skill Trident X F3-2666C12D-16GTXD, mimo bardzo wysokiego odczytu, prędkość zapisu była dwukrotnie niższa. Podejrzewam błąd BIOS-u, albo nieprawidłowo działający profil XMP. Ostatecznie pozostałem przy konfiguracji 4 × 8 GB Corsair Vengeance CMZ32GX3M4A2400C10 2400 MHz CL10. Ciekawostka: tak wysokie przepustowości Quad DDR3 można osiągnąć po zmianie FSB procesora ze 100 MHz na 125 MHz (oczywiście przy odpowiednim podkręceniu CPU). Pamiętajcie, że przepustowość Quad DDR3 na większości komputerów to 46-55GB/s, dlatego osiągnięcie 78GB/s to trochę abstrakcja. Większość osób które siedzi latami w sprzęcie PC potrafi przydzielić generację do konkretnej półki wydajności, jednak mój stary PC potrafi zaskoczyć (choćby ten ranking 3DMark). Nadal jestem zadowolony z tego sprzętu, chociaż zżera ogromne ilości prądu, gdy piszę tą wiadomość ciągnie 265W (wszystkie urządzenia łącznie z monitorem i głośnikami). Jeśli ktoś ma na zbyciu Xeona E5-1680 v2, który działa stabilnie w zakresie 4,6–4,8 GHz, proszę o kontakt. Może udałoby mi się przegonić tego Core i9 podkręconego do 6,2 GHz, bo obecne taktowanie 4,375 GHz czyni z mojego zestawu najniżej taktowaną maszynę w TOP100. Dla porównania — procesor z minimalnie wyższym taktowaniem na liście AMD Ryzen 7 5800X3D @ 4,451 GHz znajduje się dopiero na 93 miejscu. starcraft2fan lubi to Cytuj
Widzior Opublikowano 22 Lutego Zgłoś Opublikowano 22 Lutego 2 godziny temu, FirstEver napisał(a): Pewnie masz rację Ludzie podniecają się wyłącznie większą częstotliwością pamięci, a dla mnie ważniejsze są niskie opóźnienia i to, aby kości były dual-rank (co oczywiście ogranicza na ogół OC MHz, ale mam to gdzieś). I obstawiam, że właśnie to było przyczyną, że na G.Skill miałeś 2x mniejszy zapis. Albo już po prostu kontroler pamięci nie dawał rady, bo 2666MHz na DDR3 to już hardcore. Sprawdź swoje Corsairy w CPU-Z/SPD, czy są single czy dual-rank, bo sam jestem ciekawy. Zasadniczo pod gry lepsze są single-rank, a do zastosowań wielozadaniowych aplikacji dual-rank. Cytuj
Widzior Opublikowano 22 Lutego Zgłoś Opublikowano 22 Lutego Taka ciekawostka na przykładzie Ryzena odnośnie tego, że czasem zapis potrafi być 2x mniejszy od odczytu i jest to związane z budową procesora. Modele z jednym CCD mają 2x mniejszy zapis, a te z dwoma CCD już normalny. I nic na to nie poradzimy Cytuj
podlos Opublikowano 23 Lutego Zgłoś Opublikowano 23 Lutego W dniu 22.02.2026 o 16:17, Widzior napisał(a): Taka ciekawostka na przykładzie Ryzena odnośnie tego, że czasem zapis potrafi być 2x mniejszy od odczytu i jest to związane z budową procesora. Modele z jednym CCD mają 2x mniejszy zapis, a te z dwoma CCD już normalny. I nic na to nie poradzimy [Zawartość widoczna tylko dla zalogowanych użytkowników] Jak nic nie poradzimy. Wystarczy zrobić upgrade na taki co ma 2x ccd i już. Cytuj
Rekomendowane odpowiedzi
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.