Möchte meine alte CPU intel core i7 2700K in Rente schicken.

Es gibt 147 Antworten in diesem Thema, welches 12.698 mal aufgerufen wurde. Der letzte Beitrag (28. April 2024 um 11:57) ist von Isno.

  • die rtx4060 mit 8gb ist für den preis kein guter deal. für full hd ok, aber für wqhd und uhd gaming sind 8gb unbrauchbar.

    das vorgängermodel gab es in zwei speichervarianten, die 12gb ist echt top.

    far cry 6, hitman 3 und sogar der flight simulator

    spiele ich im single player modus in uhd, recht hohe details, mit keiner schlechten fps

    rate.

    nicht umsonst ist diese karte im netz für viele ein geheimtip

    zudem ist die 4060 auch noch im speicherinterface limitiert.

  • Da bin ich nicht ganz bei dir in der Meinung.

    Ich versuche mal meine Denkweise/Einschätzung der beiden Grafikkarten in Worte zu fassen. Was ich aber eigentlich nicht gut kann. Ich denke mal das deine Bedenken in Richtung Speicheranbindung (RTX3060 = 192bit; RTX4060 = 128bit) gehen. Ich gebe dir Recht das es auf den ersten Blick wie ein Rückschritt aussieht. Dem ist aber nicht so. Die RTX4060 braucht einfach durch das geänderte und neue Speichermanagement nicht mehr als die 128bit Anbindung um dennoch der 3060 mit der 192er Speicheranbindung überlegen zu sein. Mag sich unglaublich anhören aber ist so.

    Als Geheimtipp sehe ich die RTX3060 nicht an. Hast du sie mal mit der günstigeren RTX4050 8GB (nicht die mobile-Version) verglichen? Die ist um einiges billiger und auf minimal höherem Niveau zu der RTX3060. Zudem ist sie in den gebotenen Features und der benötigten TDP aktueller da sie erst seit wenigen Monaten auf dem Markt ist.

    Zu den angesprochenen 12 GB RAM zu 8GB RAM macht sich das erst wirklich in hohen Auflösungen bemerkbar. Ich denke mal für WQHD und der Leistungsklasse der RTX3060 sind 12GB überdimensioniert und mehr als Werbung zu verstehen. Für 4K hat diese Grafikkarte einfach zu wenig power um die 12GB auch dementsprechend auszunutzen und zu befeuern.

    Aber schlecht ist sie nicht und vielen anderen Grafikkarten zu bevorzugen ist sie auch auf jeden Fall wenn sie gebraucht bei ebay geschossen wird. :thumbup:

    5 Mal editiert, zuletzt von Bulls-Eye (8. Dezember 2023 um 00:40)

  • ja genau, ich meinte das mit der speicheranbindung.

    ich selbst besitze keine 4060, ich hab einfach nur viele tests gelesen und einige yt videos dazu gesehen.

    die meinungen der fachzeitschriften kritisieren die 4060 stark.

    ich glaube Du hast damit recht, dass in full hd die 4060 die 3060er serie um einige prozentpunkte schlägt, das hab ich auch gelesen.

    ich kann aber definitiv sagen, dass die 3060 12 gb bezüglich 4k der 4060 sicher überlegen ist.

    die 8gb 3060 nicht, das ist klar.

    ich spiele far cry 6 in hohen details in 4k ohne ruckler.

    bin kein freund der von Dir gezeigten durchschnittsperformance anzeigen.

    finde die grafiken konkreter aktueller titel aussagekräftiger.

    ich möchte auf jeden fall in full hd nicht mehr spielen, eigentlich auch nicht in wqhd

    wer uhd mal gewohnt ist….

    natürlich gibt es für uhd noch bessere karten, 4070 aufwärts, wollte nur ca. 300 eur ausgeben

    und für meine single player spiele bin ich zufrieden wenn ich in uhd irgendwas zwischen 30 und 60 fps zusammenkriege :)

  • ich möchte auf jeden fall in full hd nicht mehr spielen, eigentlich auch nicht in wqhd

    wer uhd mal gewohnt ist….

    Das ist auch meine Auflösung WQHD und mir reicht die auch. Für ein flüssiges Spiel in 4K wäre mir das Geld im Moment zu Schade für die teure Hardware. Da bin ich wieder voll bei Dir. :thumbsup:

    edit

    Ich "bunkere" mir hier mal mein PassMark Performance 11.0 Ergebnis um es am Sonntag mit den neuen Systemkomponenten zu vergleichen.

    i7-2700K & GTX1070

    2 Mal editiert, zuletzt von Bulls-Eye (8. Dezember 2023 um 13:18)

  • Ich habe mir vor etwas über einem Jahr eine gebrauchte RTX 3060 12gb von Lenovo gekauft. Lenovo ist zwar nicht gerade ein bekannter Grafikkartenhersteller, hab trotzdem zugeschlagen, war quasi um die Ecke. Für alles ausser 4K ist sie sehr gut geeignet. 4K kann sie auch, allerings nur mit 30-50 Bildern pro Sekunde.

    Nach der Leistungoptimierung mittels Geforce Experience beträgt die Leistungsaufnahme unter Volllast knapp 170 Watt. Ausgelesen mit MSI Afterburner.

    Ich bin sehr zufrieden mit der Karte.

    When I was just a baby, My Mama told me, "Son, Always be a good boy, Don't ever play with guns"

    by Johnny Cash "Folsom Prison Blues"

  • So einen ähnlichen power consumption meter habe ich auch. Aber meines hat nicht so ein cooles display. Ich muss jedesmal unter den Schreibtisch krabbeln und mache von der Anzeige ein handy-Foto. Die Anzeige ist recht klein.

    Ich nutze sehr häufig die Funktion min. Watt-Verbrauch & max. Watt-Verbrauch. Diese Werte speichert das M12 für späteres Abrufen. Dafür ist das M12 super zu gebrauchen. Aber leider ist es ehr etwas für einen Schreibtisch wo es direkt im Blick an der Wand in der Steckdose hängt.

    Einmal editiert, zuletzt von Bulls-Eye (9. Dezember 2023 um 07:13)

  • Es ist einfach zum heulen. Gestern noch alle Einkäufe erledigt, Glas weggebracht, Bürgersteig und Einfahrt gekehrt nur um heute für das neue System Zeit zu haben. Und was ist? Alles ist geliefert worden bis auf die Wärmeleitpaste die einzeln bei amazon geordert wurde. :cursing:

    Na ja, habe ich heute morgen halt vom jetzigen PC nochmal Daten gesammelt und "bunkere" die in Summe hier.

    Dann noch idle & load während des passmark

    3DMark_TimeSpy_alt_Durchschnitt.jpg

    Watt-Verbrauch Gesamtsystem (ASUS 27" WQHD TFT, PC-Lautsprecher & Komplett-PC) während Passmark & 3DMark laufen und der Watt-Verbrauch im Leerlauf (Desktop-Ansicht).

    5 Mal editiert, zuletzt von Bulls-Eye (9. Dezember 2023 um 17:59)

  • So, der Umbau auf das neue System war mit einigen Stolpersteinen gepflastert. Das Mainboard ASROCK B550M-HDV ist nicht mit dem georderten M.2-Speicher kompatibel gewesen. Also habe ich kurzerhand einen langsameren Speicher noch besorgt und an SATA angehangen. Dann war mein alter CPU-Kühler Thermalright True Spirit 140 Power einfach zu breit für das Mainboard. Der PCIe-4.0 Steckplatz ist sehr nah am CPU-Sockel. Also habe ich auch noch kurzfristig einen Scythe Fuma 3 besorgt und mit dem hier im Thread empfohlenen Wärmeleit-Pad auf die CPU gebaut. Beim eben gelaufenen Performance Test ging der 5700X nicht über 70°C hinaus. Das ist beeindruckend. Aber ein echter CPU-Stresstest folgt noch und auch Watt-Verbrauch in Idle & Last.

    Der erste Test

    Performancetest 11

    Die CPU ist der Hammer in der Einzelbewertung.

    intel i7 2700K@4,5GHz OC = 6491

    amd Ryzen 7 5700X (Standardtakt) = 27251

    Die Grafikkarte ist die selbe geblieben. Doch auch da gab es durch den Wechsel von PCIe-2.0 auf PCIe-4.0 und Prozessortausch nochmals ca. 5% Leistung drauf.

  • Passt einfach nicht in den Sockel rein.


    Den Stabilitätstest von Aida64 hat der 5700X mit Bravur bestanden. Über 25 Minuten die CPU gestresst mit max. 63°C. Der 5700X throtteld erst ab 90°C. Da ist noch massig Luft für den Sommer. Jedenfalls läuft er bei 63°C mit allem was er kann. :)

  • Da gehört die M2. SSD ja auch nicht hin..

    Sie wird liegend verbaut, direkt unter dem Grafikkarten Slot.

    An der halbrunden Aussparung wird die SSD festgeschraubt.

    Da wo du grün umrahmt hast, da kommt die M2. SSD nicht rein.

    Nachtrag: kann man deutlich lesen... da steht ^Hyper M.2 <--- dort steckst du die SSD M.2 Festplatte rein... da wo vor Hyper zwei Pfeile nach oben zeigen, der untere blau der obere weiß

    2 Mal editiert, zuletzt von PCPAirgunFan (13. Dezember 2023 um 20:09)

  • Ach du heilige Sch.... =O Ihr habt Recht. Ich habe es auch schon gegoogelt. Das behebe ich morgen. Tja, dann habe ich morgen wohl 2 TB an Speicher im System. :saint:

    Aber noch ein Systemvergleich mit der RTX4060. Die geht morgen wieder zurück. Gerade mal 27% mehr Leistung als die übertaktete GTX1070 auf dem neuen Board und neuem Prozessor. Da sind mir dann doch 300€ zu Schade für.

  • Aber noch ein Systemvergleich mit der RTX4060. Die geht morgen wieder zurück. Gerade mal 27% mehr Leistung als die übertaktete GTX1070 auf dem neuen Board und neuem Prozessor. Da sind mir dann doch 300€ zu Schade für.

    Naja 27 % mehr und 115 Watt ... ist doch gar nicht so schlecht. Ich würde das mal bei Spiele testen oder mal andere Programme zum Testen der Grafikkarte verwenden... Ich denke gegenüber der 1070 ohne Ti dürfte die 4060 schon bis zu 50 % mehr Leistung bringen. Kommt halt auf einzelne Spiel oder Programm an. Ist aber bei AMD Grafikkarten auch so. Mal läuft Nvidia besser mal AMD