News Neuer Weltrekord im 3DMark: Radeon RX 6900 XT erreicht 37.618 Punkte mit 3,3 GHz

Das sind zu 99,9% Samsung B-Die. ;)

Wo G.Skill steht, ist auch G.Skill drin, aber gut, müssen es ja nicht groß auf die Fahne schreiben, wenn Crucial deren Sponsor ist.

Wäre mir neu, dass E-Dies das in irgend einer Art und Weise schaffen. Hier mal meine 2x16GB B-Die @ 1,85V:
image_id_2465351.jpeg

Natürlich lasse ich mich gerne eines Besseren belehren.
 
Das sind noch mal DOPPELT so viele Punkte wie mit einer Standard-Stock-RTX3080 auf Mittelklasse-HW.
Verrückt... :daumen:
 
Nitschi66 schrieb:
Bis jetzt wurde bei der GPU mehr wert auf Packdichte gelegt.
Stimmt, in diese Richtung hatte ich auch mal gelesen. Wobei, eigentlich war es eher andersrum: AMD hatte beginnend mit Vega dem Chipdesign einige Extratransistoren spendiert, um damit ein sog. Hochtakt-Design zu realisieren. 3D-Center hatte das längere Zeit auf dem Radar, siehe bspw. das hier:

Viel wichtiger ist aber natürlich, das die angegebenen (bis zu) 1600 MHz Chiptakt bestätigen, das Vega 10 sein Designziel eines Hochtakt-Designs auch wirklich erreichen hat
 
Beeindruckende Zahlen sind das allemal. Da kann man strampeln wie man will, mit der Hardware von der Stange hat das nichts zu tun.

Grüsse
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Faust2011 schrieb:
Coole Sache. Mich würde interessieren, wo denn der prinzipielle Unterschied liegt, weshalb CPUs bei den Taktfrequenzen (bisher) den GPU-Chips deutlich davongezogen sind und so taktfreudig sind.

Es ist eher umgekehrt: Warum macht man nicht CPUs mit hunderten niedriger getakteten Cores, die dann halt 300W (vielleicht 1W/core) verbrauchen? Weil sich die Sachen, die auf CPUs laufen, nicht so gut paralleliseren lassen. Deswegen eben wenige Cores; die werden einerseits dann fuer mehr Takt entworfen und andererseits auch von der Spannungsversorgung in Richtung hoher Takt getrieben.
Ergänzung ()

[wege]mini schrieb:
Leider sind 100 Grad Celsius bei Halbleitern schon ziemlich viel. Sonst könnte man Wasser verdampfen lassen und die CPUs würden schön vor sich hin köcheln.

Da Heat Pipes in diesem Temperaturbereich ueblicherweise Wasser als Arbeitsmedium verwenden, hast Du das koechelnde Wasser schon. Und ja, Wasser in Heat Pipes kocht auch bei 20 Grad, dann ist der Druck halt entsprechend niedrig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini
mae schrieb:
Weil sich die Sachen, die auf CPUs laufen, nicht so gut paralleliseren lassen.
Das kann man so nicht stehen lassen. Denn wenn AMD mit Zen nicht so erfolgreich gewesen wäre und ist, würden wir jetzt immer noch mit 4/8 Cores/Threads rumwurschteln.
Oder glaubst du ernsthaft, Intel hätte eine 6, 8 oder 10 Kern CPU auf den Markt geworfen, nur um uns einen Gefallen zu tun?? Wohl eher nicht!
 
  • Gefällt mir
Reaktionen: Dittsche und Thorque
Bluestar0002 schrieb:
Zuverlässig im Sinne von Stabil?
Nein. Zuverlässig im Sinne von wenn auf dem Tacho Deines Autos 200 km/h als gegenwärtige Geschwindigkeit angezeigt wird kannst Du darauf wetten dass genau das nicht Deine gegenwärtige Geschwindigkeit ist.

Mit anderen Worten: Zuverlässig in dem Sinne dass der irgendwo eingestellte Teiler auch tatsächlich zum Einsatz kommt und nicht durch irgendwelche interne Logik in Software oder Hardware unterhalb der Sichtbarkeitsgrenze nochmal verstellt wird.
 
mae schrieb:
Und ja, Wasser in Heat Pipes kocht auch bei 20 Grad, dann ist der Druck halt entsprechend niedrig.

Natürlich. Von deinen 20 Grad möchte ich jetzt mal nicht reden, da der Unterdruck dann wirklich extrem niedrig wäre und damit die Fehleranfälligkeit des Systems deutlich zu hoch wäre.

https://www.leifiphysik.de/waermelehre/innere-energie-waermekapazitaet/ausblick/dampfdruck

So ab 50 Grad ergibt das langsam alles Sinn. Leider muss das doofe Rohr irgend wann immer dicker werden, damit die Ausdehnung des Wassers abgefangen werden kann. Mit richtig viel Unterdruck könnte man theoretisch auch nahe die Null Grad Celsius kommen.

Mit Drücken zu Arbeiten um die Temperaturen für die Aggregatzustandsänderung zu verändern, ist auf jeden Fall eine super Idee.

Einfach soll es sein, nichts kosten und ewig halten. Das würde mit kochendem Wasser ohne Druckveränderung super funktionieren. Geht halt leider nicht, da der Chip das nicht mag.

Wenn man sowieso schon mit Druckveränderung arbeitet, kann man auch gleich das Wasser gegen ein besseres Mittel tauschen, wenn man es "ordentlich" machen will. Leider sind die meisten besseren Mittel giftig oder unfassbar teuer, baut man also nicht für jedermann.

Da wir ja aber gerade über LN2 Kühlung reden (da wird die Wärme ebenfalls durch Verdampfung abgeführt), kann man auch darüber mal nachdenken.

mfg

p.s.

Noch so als Denkanstoß: Wenn man einen Kühler bauen würde, bei dem das Wasser bei 20 Grad Celsius kocht und man möchte ihn bei normaler Temperatur betreiben, könnte die Umgebungstemperatur nicht einmal das Wasser wieder zum kondensieren bringen, oder man hat 10 Grad Celsius und weniger, in der Umgebung. Dann braucht man aber auch kein Wasser und kann die Luft nehmen.
 
Zuletzt bearbeitet:
M Polle schrieb:
Auch wenn es unter LN2 ist, die Taktregionen, die Grafikkarten mittlerweile erreichen bringen mich immer wieder zum Staunen! Noch vor wenigen Monaten galten 2GHz für Otto-Normalkarten auch als unpraktikabel für Konsumprodukte.
Hä?

Meine GTX 1070 läuft schon seit Jahren mit 2 GHz und das trotz stark reduzierter Spannung.
Also 2,0-2,2 Ghz sind schon seit Jahren nichts außergewöhnliches. Nur hat sich seit dem wenig geändert, bis zur AMD 6000er Serie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 8087 und Pro_Bro
[wege]mini schrieb:
Das ist ja auch nicht schlimm. Was man mit der Abwärme (eine Form der Energie) anstellt, wird interessant. Die "Kühlung" ist eher sekundär.
Relativ zur Wärmepumpe fast immer Verschwendung.
 
  • Gefällt mir
Reaktionen: [wege]mini
Faust2011 schrieb:
Coole Sache. Mich würde interessieren, wo denn der prinzipielle Unterschied liegt, weshalb CPUs bei den Taktfrequenzen (bisher) den GPU-Chips deutlich davongezogen sind und so taktfreudig sind.
Das hat was mit der Länge der Pipeline zu tun durch die die Daten "wandern"... Bei langen komplexen Pipelines kann man in der Regel nicht so hoch takten... Bzw takten schon - es endet nur nicht mehr in Mehrleistung weil in der Pipeline sich z.B. Wattezyklen ungünstig aufaddieren...
AMD hatte RDNA extra dahin designt das mehr Takt möglich wird... So zu sagen als Antwort auf Nvidia - deren Designs vorher ja schon um die 1 - 2 GHZ kamen...
Gab ja früher von NV Karten wo es gefühlt 16 Versionen von gab... (Mehr GPU Takt und oder mehr Speichertakt)
 
Nagilum99 schrieb:
Relativ zur Wärmepumpe fast immer Verschwendung.

Ja und nein.

Die Rechenleistung wird nun einmal benötigt. Halbleiter erzeugen aber unglaublich viel Wärmeenergie, relativ gesehen zur elektrischen Energie, die man reinsteckt.

Das kann man jetzt als negativ ansehen, man könnte sie aber auch als unglaublich effiziente Wärmeerzeuger bezeichnen.

Da man die Erzeugung der Wärme also gar nicht verhindern kann, da man die Rechenleistung braucht, muss man das Beste aus der Situation machen.

Mit der Wärme die Temperatur von Wasser zu erhöhen, welches man sowieso zum Waschen des Menschen möchte (wer will schon kalt duschen) oder zum Heizen verwendet (wer will schon bei Kälte hausen), ist demnach ein guter Ansatz.

Auf jeden Fall ist es deutlich besser, als Wasser mit der Verbrennung von Kohlenstoff zu erwärmen. Wenn jedoch der Strom aus Verbrennung kommt, ist das auch nicht mehr besonders clever.

Niemand hat gesagt, dass ein Gesamtkunstwerk einfach ist. Dann könnte es ja jeder. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Killer1980 schrieb:
Finde schon beeindruckend wie AMD die rdna Architektur umgekrempelt hat, dass die Karten so hoch takten können
Warte erst mal RDNA 3 ab, da sollten die 4GHz dann drin sein. ^^
 
  • Gefällt mir
Reaktionen: Killer1980
Mich würde einmal interessieren, wieviel elektrische Leistung dieses System aufnimmt. Ob da ein 1,5kW Netzteil ausreicht?
Wenn man dann noch die Leistung zum Herstellen des Kühlmittels mit einbezieht, brauch so ein System bestimmt 20kW...
 
peterX schrieb:
Das kann man so nicht stehen lassen. Denn wenn AMD mit Zen nicht so erfolgreich gewesen wäre und ist, würden wir jetzt immer noch mit 4/8 Cores/Threads rumwurschteln.
Oder glaubst du ernsthaft, Intel hätte eine 6, 8 oder 10 Kern CPU auf den Markt geworfen, nur um uns einen Gefallen zu tun?? Wohl eher nicht!
Zen ist nur so erfolgreich geworden bzw. erfolgreicher als früher, weil Zen mit seinen erhöhten Core-Anzahl deutlich mehr auf professionelle Anwendungsgebiete abzielt.

Das Mehr an Kernen bringt dir nur bei Anwendungen etwas, welche sich gut parallelisieren lassen und man nie genug Rechenleistung haben kann, wie beim Rendering oder der Bild- und Soundbearbeitung.
Fürs Gaming allerdings, ist es eher besser einen hohen Takt pro Kern zu haben, da dort die Parallelisierung deutlich schwieriger ist und man selbst mit einem 6-Kernen noch außreichend bestückt ist.

Zudem ist es ein Unterschied, ob man 8 oder 12 Kerne parallelisiernen muss oder bis zu 5000 Kerne, so wie in einer GPU.

Hast du dich nicht schon immer gefragt, warum sich einzelne Kerne besser übertakten lassen, als alle zusammen?
Das liegt daran, weil die Signale sich durch Interferenz mit anderen Signalen stören. Je weniger Störungen vorhanden sind, desto deutlich lassen sich Signale übertragen, sprich in einem Kern lassen sich deutliche Signale besser hochtakten, als undeutliche. (Vereinfacht ausgedrückt). Je mehr dazwischen plappern um so schwieriger wird es noch ein klares Ergebniss pro Kern zu bekommen.

AMD hat bei RDNA2 nun höhere Taktraten erreicht, weil AMD den Vorteil hat das Know-How der hochtaktenden CPUs mit der GPUs zu vereinen.
Lisa Su hat einmal bei einem Interview gesagt, als Zen3 fertig entwickelt war, sie habe das Personal der CPU-Abteilung in die GPU-Abteilung geschickt, wodurch sie mit ihrer Hochfrequenzerfahrung die Schaltungen so optimieren, dass auch GPUs höhere Taktraten erreichen können.
Quasi das Beste aus beiden Welten vereint und somit einen großen Schritt nach Vorne machen konnten und NVIDIA nunmehr die Stirn bieten können.
 
  • Gefällt mir
Reaktionen: nazfalas
Novasun schrieb:
Bei langen komplexen Pipelines kann man in der Regel nicht so hoch takten...

Doch. Man macht lange Pipelines ja dazu, damit jede Stufe weniger tun muss und damit schneller fertig wird. Wobei jede Stufe einen Overhead hat; wenn man daher doppelt soviele Stufen macht, kommt nicht der doppelte Takt heraus, sondern weniger. Und eine laengere Pipeline und hoeherer Takt bedeutet auch mehr Stromverbrauch; deswegen hat Intel das urspruengliche Tejas-Projekt und Plaene fuer noch laengere und hoeher getaktete Pipelines eingestampft und ist zu Nachfolgern zur Pentium III-Mikroarchitektur zurueckgekehrt.
Ergänzung ()

[wege]mini schrieb:
Natürlich. Von deinen 20 Grad möchte ich jetzt mal nicht reden, da der Unterdruck dann wirklich extrem niedrig wäre und damit die Fehleranfälligkeit des Systems deutlich zu hoch wäre.

Was meinst Du mit Fehleranfaelligkeit? Wenn die Heat Pipe ordnungsgemaess befuellt wurde, sodass keine anderen Gase (z.B. Luft) in nennenswertem Mass drinnen ist, stellt sich bei 20 Grad der Dampfdruck von Wasser bei 20Grad ein und bei 0 Grad der Dampfdruck bei 0 Grad (611Pa).

So ab 50 Grad ergibt das langsam alles Sinn.

Meine CPU hat derzeit 31-35 Grad auf den Kernen, und wird mit einem Kuehler mit Heat Pipes gekuehlt, die funktinieren also auch unter 50 Grad.

Einfach soll es sein, nichts kosten und ewig halten.

Heat Pipes kosten zwar etwas, sind aber einfach und halten lange.

Wenn man sowieso schon mit Druckveränderung arbeitet, kann man auch gleich das Wasser gegen ein besseres Mittel tauschen

Fuer den Temperaturbereich, in dem CPUs normalerweise betrieben werden, ist Wasser schon ein sehr gutes Medium, weil es relativ viel Energie zum Verdampfen braucht.

Noch so als Denkanstoß: Wenn man einen Kühler bauen würde, bei dem das Wasser bei 20 Grad Celsius kocht und man möchte ihn bei normaler Temperatur betreiben, könnte die Umgebungstemperatur nicht einmal das Wasser wieder zum kondensieren bringen, oder man hat 10 Grad Celsius und weniger, in der Umgebung. Dann braucht man aber auch kein Wasser und kann die Luft nehmen.

Ja, eine Heat Pipe sorgt nur fuer besonders effektiven Waermetransport. Damit man damit eine Waermequelle auf 20 Grad halten kann, braucht man auch eine Waermesenke, die kuehler als 20 Grad ist. Deswegen betreibt man CPUs und GPUs auch normalerweise oberhalb der Raumtemperatur.
 
Zuletzt bearbeitet:
[CPU-Programme lassen sich nicht so gut parallelisieren]
peterX schrieb:
Das kann man so nicht stehen lassen. Denn wenn AMD mit Zen nicht so erfolgreich gewesen wäre und ist, würden wir jetzt immer noch mit 4/8 Cores/Threads rumwurschteln.

Ja, aber warum war AMD mit Zen erfolgreich und mit Bulldozer/Piledriver (mit 8 Kernen) nicht? Weil Zen eben auch gute Single-Thread-Performance hat, und dort auch die Software gut lief, die sich nicht oder schlecht parallelisieren laesst.

Wenn sich die CPU-Software so gut parallelisieren liesse wie die GPU-Software, dann haette uns Intel schon laengst sowas wie den Atom C3958 (16 Goldmont-Kerne, 2GHz, 31W TDP) verkauft, nur eben mit noch viel mehr Kernen, von denen vielleicht jeder noch schwaecher waere; und sie wuerden einfach nur CPUs mit noch mehr Kernen bauen statt welche mit schnelleren Kernen. So verkauft Intel diese CPU als Server-CPU, weil dort genuegend parallele Aufgaben anfallen, dass man 16 Kerne beschaeftigen kann (auch wenn die Einzelaufgaben meist wieder sequentiell sind).
 
But, when I can buy it?
 
  • Gefällt mir
Reaktionen: hippiemanuide
Offtopic:
Mir würde eine 6800XT zum OVP mit Verfügbarkeit genügen. Aber schon schön zu sehen, dass Team Rot weiterhin solides Silicon pressen kann. Denke mal, wenn man was bekommt denke ich mal über die Next-Gen CPU + DDR5 und GPU nach. Vielleicht hat man bis dahin auch mal 5k MiniLED Display in Verfügbarkeit. Der Dell 40" ist mir einfach zu dunkel für den Preis auch nicht wirklich in einem guten P/L.
 
Zurück
Oben