Rtx 3060...oder?

Ayumij schrieb:
ie RX 6800 ist doch auch schon für pcie4 gebaut, warum sollte ich da keinen Performance-Verlust haben
Weil die 6800 mit 16 Lanes angebunden ist, die RTX nur mit 8. Das ist die doppelte Bandbreite. Und wenn man PCIe4 nicht nutzen kann, halbiert sich die Bandbreite mit PCIe3.

Eine RTX 4060TI in einem PCIe Gen3 System ist also mit der Bandbreite von nur 4 PCIe Gen4 Lanes angebunden, das ist gerade mal so viel wie eine aktuelle NVMe.
Ayumij schrieb:
Ah okay, dass Userbenchmark speziell Mist ist, wusste ich nicht.
Die Optimieren seit Jahren ihr Bewertungsmodell um AMD-Prozessoren runterzustufen. Daraus machen die auch kein Geheimnis. Man muss sich nur mal das Fazit nach den Tests durchlesen, dann merkt man das man es hier mit Bildzeitungsniveau zu tun hat. Die Seite ist einfach nur noch Schmutz mittlerweile.
AMD:
The AMD 7000X3D CPUs have the same core architecture as the rest of the 7000 series but they have one group of eight "3D" cores with extra cache. The “3D” cores are priced higher but run at 10% lower clocks. For most real-world tasks performance is comparable to the 7000X variant. Cache sensitive scenarios such as low res. canned game benchmarks with an RTX 4090 ($2,000) benefit at the cost of everything else. Be wary of sponsored reviews with cherry picked games that showcase the wins, ignore frame drops and gloss over the losses. Also watch out for AMD’s army of Neanderthal social media accounts on reddit, forums and youtube, they will be singing their own praises as usual. AMD continue to develop “Advanced Marketing” relationships with select youtubers in the hope of compensating for second tier products with first tier marketing. PC gamers considering a 7000X3D CPU need to work on their critical thinking skills: Influencers are paid handsomely to promote overpriced products. Rational gamers have little reason to look further than the $300 13600K which offers comparable real-world gaming and better desktop performance at a fraction of the price. Workstation users (and RTX 4080+ gamers) may find value in higher core CPUs such as the 16-core $400 13700K. Despite offering better performance at lower prices, as long as Intel continues to sample and sponsor marketers that are mostly funded by AMD, they will struggle to win market share.
Intel:
Intel’s 13th gen. Raptor Lake CPUs offer around 10% faster gaming and 45% faster multi-core performance than their predecessors. The new CPUs are compatible with DDR4 memory and Z690/B660 ($150) motherboards. New high-end gaming builders need look no further than the 13600K. The 13600K beats AMD’s flagship 7950X in gaming and almost matches the 7900X in multi-core performance. Extreme workstation users may find value in the 13700K or 13900K. Gamers on a tight budget can save $40 USD with a 13600KF which is a 13600K without integrated graphics. Although Ryzen 7000 has weaker multi-core, weaker single-core, higher platform costs and higher unit prices AMD have a 3D joker up their sleeve (7800X3D est. 2023). Via “Advanced Marketing” on youtube, forums, reddit, and twitter AMD will demonstrate that their upcoming CPU is the “best in the world” and offer “proof” by way of a small handful of obscure workloads. Games that few people play e.g. (Factorio, SotTR) will be cherry picked, video footage of the gameplay/settings won’t be provided and frame drops will be conveniently ignored. This playbook has easily outsold Intel in recent years but with every overhyped release, consumers lose trust in AMD. Based on social media/press coverage, you would never guess that the combined market share for all of AMD’s Radeon 5000 and 6000 GPUs amongst PC gamers is just 2.12% (Steam stats). Meanwhile Nvidia’s RTX 2060 alone accounts for a whopping 5.03%. Largely thanks to marketing incompetence, Intel is existentially motivated to deliver material annual performance improvements. Consumers can look forward to Meteor Lake (14th gen) in less than a years time.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fenkel, shortex und Ayumij
Beide Karten haben bei PCI 3.0 etwa 5 % weniger Leistung als bei 4.0. Aber bei der 4060ti kommt je nach Situation halt noch zum tragen, dass sie nur mit 8 statt 16 Lanes angebunden ist.
Ergänzung ()

ghecko schrieb:
Eine RTX 4060TI in einem PCIe Gen3 System ist also mit der Bandbreite von nur 4 PCIe Gen4 Lanes angebunden, das ist gerade mal so viel wie eine aktuelle NVMe.

In der Theorie ja, aber in der Praxis ist es nicht ganz so dramatisch. Siehe Testergebnisse PCI 3.0 zu 4.0. In einem Benchmark Mix aus 16 Games waren es im Schnitt 5 %.

Die größten Nachteile bei nur 8 Lanes hast du halt, wenn schnell in den VRam Nachgeladen wird oder der VRam knapp wird. Was bei 16 GB nicht so schnell passieren sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ayumij
Soll im Juli kommen und der Preis war um die 549 Euro. Wobei die 8 GB ja schon im Preis gefallen ist.
Könnte mir auch vorstellen, dass die 16 GB Version in WQHD näher an die rx6800 ran kommt, da der 8 GB Version im Test in der Auflösung der VRam ausgegangen ist.
 
  • Gefällt mir
Reaktionen: Ayumij
C16+4 schrieb:
da der 8 GB Version im Test in der Auflösung der VRam ausgegangen ist.
Ist ja nicht das einzige Problem der Ti. Die Speicherbandbreite bleibt mit 128bit und 288GB/s gleich, trotz 16GB.
Die 3060TI bietet 256bit/448GB/s. Und man merkt, dass die Vergrößerung des Caches die Reduzierung der Speicherbandbreite nicht kompensieren kann. 16GB klingen auf dem Papier erst mal gut, ändern aber nichts daran, das der Chip eigentlich in eine RTX4050 gehört und über die Bandbreite zum Speicher verhungert. Und für so was darf man Nvidia dann 500+ € bezahlen.

Nichts an der Karte gibt mir einen Grund, sie über die RX6800 in diesem Szenario zu empfehlen. Wer in zwei Jahren wieder aufrüsten will, bitte. Ich behalte meine Karten länger.
 
  • Gefällt mir
Reaktionen: Ayumij
Ich würde für das gleiche Geld zur 6800xt greifen und mir ein anderes Netzteil holen, wenn ich nicht schon eine 6800 verbaut hätte.
 
  • Gefällt mir
Reaktionen: Ayumij
So ich kann da helfen da meine konfig ähnlich ist
Die kombi r5 3600 32gb ra,m und ne rtx3060 12gb ist ideal für 1080p

dazu paar capframex bildr von aktuellen spielen
fps=egpo shooter ue4
1686386088747.png

Low polygon shooter absichtlich release may 2023
Ego Nahkampf ebenfalls ue4
1686386153318.png

das ist noch keine festgelegte stelle im spiel war mal angeworfen um die Auslastung zu prüfen.

Dann mal ne andere engine auch ego shooter dunia 3
1686386248928.png


dann mal nen aktuellen hardware Fresser
1686386308402.png


dann das besagte gollum auch nur das tut level
1686386352914.png

dazu nur eins das ist mit dxr aber OHNE dlss oder fsr

dann das hogwarts
1686386416583.png

vom saal zum hof dxr an ohne dlss fsr

oder was anderes wie
1686386480756.png

oder die alternative
1686386530390.png

oder dies
1686386584454.png

ebenfalls keine festgelegte Szene sollte aber ein rennen sein

oder das
1686386778322.png


Das einzige was die rtx3060 nicht so gut kann ist natives dxr da ist dlss bzw fsr essentiell um über die magische 30fps zu kommen.
Extrem bsp wären
cyberpunk 2077 showcase mit dlss q
1686386883361.png

aber erst dlss ultra per kommt man nah an spielbaren fps um die 40
anderes extrem bsp wäre the witcher 3 dxr update
1686387011626.png

Da ist auch min dlss perf notwendig

und zuletzt nen shooter mit dxr nativ
1686387097441.png


man bekommt jede gpu klein zur not
Die rtx4070 ist um etwa +90% schneller also beinahe doppelt so schnell

Alles 1080p immer am limit eingestellt ohne msaa und blur

Aber dein zen2 chip wird die rtx4070 auf 1080p limitieren
daher ist die rtx3060 12gb ideal für dein system zum verbrauch maxed 170w aber auch nur selten oft zwischen 130-150w
 
  • Gefällt mir
Reaktionen: vti, die und Ayumij
syfsyn schrieb:
Aber dein zen2 chip wird die rtx4070 auf 1080p limitieren
daher ist die rtx3060 12gb ideal für dein system zum verbrauch maxed 170w aber auch nur selten oft zwischen 130-150w
Mag sein, dass der ZEN2 die RTX 4070 in 1080p auch mal limitiert. Es gibt ja auch Spiele in denen es anders rum ist.
Aber deswegen die RTX 3060 als ideale Karte hinstellen ist schon gewagt.
Eine RX 6800 oder RTX 4070 drehen bei selben Verbrauch einer RTX 3060 kreise um diese. Ferner besteht ja immer noch die Möglichkeit im Treiber DL-Skalierung zu aktivieren und in höherer Auflösung zu spielen.
Bei seinem Budget (sofern @Ayumij es ausnutzen will) sind die beiden Karten die einzig lohnenden Kandidaten.
Entscheiden muss er natürlich alleine.
 
  • Gefällt mir
Reaktionen: Ayumij
@Ayumij
PCIE 3.0 x8 =8GB/s RTX4060ti + 128bit was die Sache zusätzlich verlangsamt
PCIE 3.0 x 16=16GB/s RX6800 + 256bit die Daten können dann noch trotzdem schnell verschoben werden ohne die GPU zu stark verlangsamen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shortex und Ayumij
syfsyn schrieb:
Alles 1080p immer am limit eingestellt ohne msaa und blur
Ayumij schrieb:
Bloomeffekte und sehr gutes Antialiasing sind aber Pflicht. Wenn ich eins hasse, sind es pixelige Kanten und "nicht-leuchtende Leuchteffekte".
Danke für deine Mühe, aber so richtig viel hilft mir das leider nicht, da deine Einstellungen halt nicht meinen favorisierten Einstellungen entsprechen. Wobei wenn ich die Grafik anschaue, die Karte bei Hogwarts Legacy auch gar nicht so gut abschneidet, was ja eins der aktuellen Spiele ist, die ich unbedingt spielen will. Also glaub die 3060 wäre echt nur eine Notfalloption für mich. Werde mich wohl eher nochmal durch die ganzen AMD Empfehlung durcharbeiten.

Danke auch an alle, die mir das hier mir den Lanes erklärt haben. Mir war nichtmal klar, dass pcie 3 nicht alle 16 Lanes nutzt. 😅
ghecko schrieb:
Ist ja nicht das einzige Problem der Ti. Die Speicherbandbreite bleibt mit 128bit und 288GB/s gleich, trotz 16GB.
Ergo langsam(er) trotz 16GB?
ghecko schrieb:
Die Optimieren seit Jahren ihr Bewertungsmodell um AMD-Prozessoren runterzustufen. Daraus machen die auch kein Geheimnis. Man muss sich nur mal das Fazit nach den Tests durchlesen, dann merkt man das man es hier mit Bildzeitungsniveau zu tun hat. Die Seite ist einfach nur noch Schmutz mittlerweile.
AMD: (...)
Intel: (...)
Hab mir das Mal durchgelesen. Das ist ja super tendenziös. Zumal das was die über AMD dort schreiben, halt teilweise auch einfach murks ist 😂
 
Zuletzt bearbeitet:
Doch 3.0 hat auch 16 Lanes, aber die 4060ti hat nur 8 Lanes. Daher kann sie nur 8 Lanes zur Übertragung nutzen.
 
  • Gefällt mir
Reaktionen: Ayumij
C16+4 schrieb:
Doch 3.0 hat auch 16 Lanes, aber die 4060ti hat nur 8 Lanes. Daher kann sie nur 8 Lanes zur Übertragung nutzen.
ghecko schrieb:
Weil die 6800 mit 16 Lanes angebunden ist, die RTX nur mit 8. Das ist die doppelte Bandbreite. Und wenn man PCIe4 nicht nutzen kann, halbiert sich die Bandbreite mit PCIe3.

Eine RTX 4060TI in einem PCIe Gen3 System ist also mit der Bandbreite von nur 4 PCIe Gen4 Lanes angebunden
Ahh, sorry. Glaub ich hab zu viel Sonne abbekommen 🤣 irgendwie hat die doppelte Geschwindigkeit da in meinem Kopf nicht "klick" gemacht 😅
 
Alles gut. Ist ja auch viel Input.
 
  • Gefällt mir
Reaktionen: Ayumij
Okay, noch eine Frage. Bzw zwei Fragen.

Welche Hersteller sind denn bei amd Karten zu empfehlen? Also bei der 6800 hab ich gestern(?) bei Mindfactory nur genau ein Modell überhaupt gefunden, aber bei der XT wäre ja die Auswahl doch etwas größer.

Und als ich mir Kundenbewertungen beim großen A vor paar Wochen zur 3060 angeguckt habe, hat sich da einer in einer Bewertung mega aufgeregt, dass er eine Karte mit Hynix Chip bekommen hat und heulen will, und dass das ohne Hinweis doch nicht gehe und er mega Angst hat, dass jetzt was mit seiner Karte passiert. Weiß nicht, ob das jetzt hier schon zu weit ins offtopic geht, aber was ist da genau das Problem?
 
Welche ramchips verbaut sind ist pures lotto
Das kann jeder aib sich auswählen von amd
nvidia ist da strikter
Sämtliche rtx3000 mit gddr6x sind micron
Sämtliche mit gddr6 samsung (16gbps)

Was amd angeht klares egal welche man nimmt
ich würde sagen die billigste
Nur eins ist sicher nvidia sagt Takt ab.
amd sagt Takt bis und hängt primär von chipgüte und tbp ab
das sind zwei völlig andere herangehensweisen für ne GPU.

Wenn amd dann nur ne rx6700xt da diese unter 400€ und nur 225w zieht die rx6800 bewegt sich Richtung 300w
Das macht dein netzteil nicht mit
 
Die 6800xt liegt Max bei 300 Watt. Die 6700xt bei 210 Watt und die 6800 bei 230 Watt. Bei allen Karten +- je nach Custom Model.
Meine 6800 Phantom Gaming hat Stock 230 Watt.
 
syfsyn schrieb:
die rx6800 bewegt sich Richtung 300w
Das macht dein netzteil nicht mit
Die RX 6800 zieht so viel wie Du der Karte zugestehst....aber auf alle Fälle keine 300W

c.pngd.png

a.jpgb.jpg

Ayumij schrieb:
Zur Zeit 2x 60 Hz full HD. Mittelfristig hab ich noch nichts spezielles im Blick. Eventuell ein wqhd Monitor.
Was ja nicht unbedingt bedeuten muss, dass Du auch in 2560x1440p spielen musst. Zur Not geht auch 1080p...was jetzt auch nicht unbedingt nach Augenkrebs aussieht.
Da ja auch eine RTX 4070 im Raum stand...
Ist zwar eine RTX 4070TI, aber in dem Bereich sollte da kein Unterschied sein.
https://extreme.pcgameshardware.de/...ng-und-raytracing.633864/page-4#post-11328529

....die Regler sind dazu da um bedient zu werden. Besonders wenn in Bewegung eh kein Unterschied da ist.
 
Zuletzt bearbeitet:
schau dir auch an WAS du für games spielst. Hattest du zwar auch gesagt aber auch da gibt es unterschiede teilweise. Aber hier haben einige teilweise echt gute tipps gegeben und ich bin sogar jetzt selbst mehr von der 6800 überzeugt.
 
ghecko schrieb:
Die 3060TI bietet 256bit/448GB/s
Die gibt es auch mit 600 GB/s für quasi den gleichen Preis.

Zu einer 4060 ti mit 16 GB für 550€ kann man nicht ernsthaft raten. Da wäre die 6700 XT oder 6800 der deutlich schlauere Kauf für weit weniger Geld.
 
zu dem preis ist die rtx4070 definitiv vorzuziehen
Die rtx4060ti 16gb wird definitiv paar wochen später unter 500€ landen ich vermujhte sogar das der releasepreis auf etwa 460€ sein wird.
Anmerke nvida könnte die sku ab 420€ anbieten und hätte keine verluste
Die 8gb rtx4060ti sogar für 300€ und die rtx4060 für knapp 250€ wären mit gleicher amrge wie Vorgänger drin.
Zu solchen Preise wären die sku halbwehgs ok aber derzeit undenkbar als kaufempfehlung
Das 16gb modell mit 20gbps vram wäre sogar ideal (320gb/s)
 
Zurück
Oben