News Für Lovelace & RDNA 3: Bilder des 12+4-Pin-Steckers für 600 W nach PCIe 5.0

knoxxi schrieb:
Aber 2x 8 PIN kann doch nur Max 300 Watt? Und die fehlenden 150 Watt im Falle des Falles kommen dann woher?
Wie kommst du auf fehlende 150W?
Da steht doch, dass du 12+4 Pin auf 2*8 Pin adaptieren kannst. Nicht, dass du 2*8 Pin auf 12+4 Pin adaptieren kannst/sollst.

Ansonsten würden die "fehlenden" 150W einfach durchs Kabel geprügelt werden. Dann geht eben mehr Strom übers Kabel und dann ist lediglich die Frage, ob der Querschnitt stimmt.
 
Ich bin wirklich gespannt wie viel Mehrleistung dabei rum kommt.

Nehmen wir mal an die neue RX 7900XT schafft bei 550W zu aktuell 300W ca 75% mehr Leistung.
Alles andere wäre bei Architekturverbesserung und mehr Stromverbrauch lächerlich.

Was soll das Teil denn dann bitte kosten?

Günstiger wie der aktuelle Preis der 6900XT wird das bestimmt nicht.
Und falls doch ist das doch der Arschtritt für alle RX 6900/6800XT, 3080(TI)/3090 Käufer.
Alles was ich geschrieben hab gilt natürlich auch für Nvidia.

Dann müsste man ja wirklich auf Intel hoffen.

Wenn die Grafikkarte 550W braucht dann kommt man mit 750W in Zukunft nicht mehr weit, Adapter hin oder her, der Prozessor hätte ja auch gerne noch was.
Ergänzung ()

AlphaKaninchen schrieb:
Die neuen Prozessschritte kommen halt mit 50% weniger Stromverbrauch bei gleicher Leistung oder 30% mehr Leistung beim gleichen Stromverbrauch (das waren doch die Zahlen der von AMD genutzten 7nm TSMC zu 5nm TSMC oder?)
Interessant, das würde ja bedeuten das im Multichip Design bei 50% weniger Verbrauch wie jetzt aber gleichzeitig 550W TDP die Leistung sich mehr als verdoppeln müsste.

Das kann ich beim besten Willen nicht glauben.
Fangen die Teile dann bei 3000€ an?
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Fighter1993 schrieb:
Interessant, das würde ja bedeuten das im Multichip Design bei 50% weniger Verbrauch wie jetzt aber gleichzeitig 550W TDP die Leistung sich mehr als verdoppeln müsste.
Leider nein es ist entweder oder... also 50% weniger Strom oder 30% mehr Leistung.
 
AlphaKaninchen schrieb:
Leider nein es ist entweder oder... also 50% weniger Strom oder 30% mehr Leistung.
Ich meinte die Mehrleistung jetzt ehr bezogen auf die 15360 Shader Einheiten die die neue RX mitbringen soll.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
AlphaKaninchen schrieb:
@Fighter1993 Ja dann passt das... mit irgendwas muss man ja die 8K 120fps berechnet bekommen :king:
Ich bin mir nicht sicher ob sie mit dieser Aktion nicht wenige Kunden verlieren.

Doppelte Leistung für das gleiche Geld (sehr unwahrscheinlich, ehr geht das wirklich Richtung 3K UVP) und vorher würde geschöpft was das Zeug hält.
 
denbaschu schrieb:
Nicht schlecht.
~789€ Strom in nur anderthalb Monaten muss man erstmal verbraten. Das Jahr ist schließlich noch nicht alt.

Haha Witzbold. Das war die Endabrechnung 2021. Hab den Post korrigiert :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: denbaschu
Fighter1993 schrieb:
Wenn die Grafikkarte 550W braucht dann kommt man mit 750W in Zukunft nicht mehr weit, Adapter hin oder her, der Prozessor hätte ja auch gerne noch was.
Das Netzteil wird da dir kleinste Sorge sein.
550 bis 600Watt in der Spitze (plus derzeit ungeahnte Spikes, die bestimmt aber die üblichen derzeitigen 100 bis 150Watt einer Top Karte mit Leichtigkeit "übertrumpfen") zu kühlen, ist die Herausforderung.
Schau dir Anzahl an Heatpipes und die Masse der Kühlkörper einer 300+Watt Karte heute an, die erforderlich ist um den thermischen Überschuss der Grafikkarte (GPU Chip, Spannungswandler, VRAM) schnell aufzunehmen, betrachte dazu dann noch das Volumen der Finnenstruktur, die über die Lüftern mit einem Luftstrom versorgt werden, um die aufgenommene thermische Last an die Umgebungsluft abzugeben, bedenke dass eine Grafikkarte unter Last so bei locker 80 bis 90°C landen kann, und dann verrate mir, wie schwer und voluminös das ganz noch werden soll.
 
@catch 22
Ich bin mal sehr gespannt was das für Bomber werden.
Aber sollte Raytracing so eine Randerscheinung vom Ergebnis her bleiben wie es aktuell ist das alles einfach nur dunkler wird damit das Licht auffällt, wird die 6900XT noch lange reichen.
Vllt wird FSR ja so gut wie DLSS und dann reicht die Karte so oder so auch mit anfänglichen RT Schwierigkeiten.
 
Also ich finde es auch schade, dass man nicht eine gewisse Norm schaffen kann, wenn eh für einen neuen Standard des PCIe einiges neu geschaffen werden muss. Idealer Weise auch so, dass ein gewisser Spielraum bereitgehalten wird, um nicht wieder zig Varianten und Adapter nötig sind.

Finde bis heute auch unmöglich, dass z.B. die P4/P8-Stecker nicht sinnvoll vereinheitlicht wurden bzw. generell ein Standard gibt, dass (obs die Vorschriften oder Hersteller betrifft) es 2 alternative Kabel enthalten sein müssen, dass entweder ein reiner 8-Pin oder 4-Pin Stecker anbei liegt. Vielleicht liegt es an meiner ungeschickten Motorik, aber diese 2x4Pin-Strom-Stecker ist das friemeligste seit ich PC´s basteln tu :D (oder ich hatte bisher immer das Pech, entsprechend ungeeignete Voraussetzungen für eine vorab einzusteckende Möglichkeit gehabt zu haben, bevor der Kram eingebaut wird ;)
 
Die Entwicklung geht in die ganz falsche Richtung.
Es wird sich aber erst etwas ändern wenn der Gesetzgeber (EU) eine Höchst- Verbrauchsgrenze festlegt.
Bei den Staubsaugern hats doch auch funktioniert.
Vorher gabs sogar Modelle mit > 2 KW und nun max 600W. Geht auch.
Wenn´s ganz Dumm läuft sagt die EU in ein paar Jahren: Private PC max. 600W: gewerbl. PC 800W -Ende

Dann machen die Softwareschlunseln vielleicht auch mal wieder ihre Arbeit vernünftig. Nicht wie heute, wo man deren Fahrlässigkeiten regelmäßig mit neuer Hardware erschlagen muss.
 
  • Gefällt mir
Reaktionen: kawanet
Kassandra_89 schrieb:
Bei den Staubsaugern hats doch auch funktioniert.
Vorher gabs sogar Modelle mit > 2 KW und nun max 600W. Geht auch.
Wait what?
Die sind aber schon auf die Idee gekommen, dass die >2kW auch einen Sinn haben.

BigLA schrieb:
Also ich finde es auch schade, dass man nicht eine gewisse Norm schaffen kann, wenn eh für einen neuen Standard des PCIe einiges neu geschaffen werden muss. Idealer Weise auch so, dass ein gewisser Spielraum bereitgehalten wird, um nicht wieder zig Varianten und Adapter nötig sind.

Finde bis heute auch unmöglich, dass z.B. die P4/P8-Stecker nicht sinnvoll vereinheitlicht wurden bzw. generell ein Standard gibt, dass (obs die Vorschriften oder Hersteller betrifft) es 2 alternative Kabel enthalten sein müssen, dass entweder ein reiner 8-Pin oder 4-Pin Stecker anbei liegt.
Moderne Netzteile haben idR
4/8 Pin ATX12V > den meinst du. der muss aber 4 polig bleiben zwecks Abwärtskompatibilät
8-Pin EPS12V > 8 Pin

Auf manchen High-End Board brauchst du aber beide, zwecks Stabilität bei OC von HighEnd CPU´s oder bei Multi CPU.

Was mich aber eher wundert ist, dass Nvidia hier einfach mal einen neuen Stecker für eine lächerlich geringe Leistungsaufnahme braucht.
AMD hatte schon vor 8 Jahren ihr Monster (295X2) mit weit über 500W (mit OC) über 2x8 Pin versorgt.
Ist zwar zugegebenermaßen weit über der Spezifikation, aber bei den aktuellen GPU´s funktionierts ja auch problemlos mit 3x8 Pin. Da ist der Schritt zu 4x8 Pin doch der deutlich einfachere Weg.

Um mal CB zu zitieren:
https://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/2/ schrieb:
In der Spitze zieht die Radeon R9 295X damit 274 Watt (23,0 Ampere bei 11,9 Volt) über einen PCIe-8-Pin-Kabelstrang.
 
knoxxi schrieb:
Aber 2x 8 PIN kann doch nur Max 300 Watt? Und die fehlenden 150 Watt im Falle des Falles kommen dann woher?

Die fehlenden 150 Watt werden aus den Brandlasten deiner Wohnung generiert.
 
Darknesss schrieb:
W
Moderne Netzteile haben idR
4/8 Pin ATX12V > den meinst du. der muss aber 4 polig bleiben zwecks Abwärtskompatibilät
8-Pin EPS12V > 8 Pin
Moin,
Na vielleicht ist es ein Wunschdenken und mag bei teureren bzw. stärkeren NT´s schon dabei sein, ich meine separate Kabel standardmässig inkl., also einen nicht teilbaren 8-pin (meist 2x erforderlich) und separat nochmal 4-pin zwecks Kompatibilität. ich hasse diese teilbaren Stecker, die wollen nie schön aneinander bleiben... ;)
Und wenn jetzt wieder zig Adapter und verschiedene Größen kommen (egal für was) wird das wieder ein gewusel... ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
@BigLA Am Besten Modular und dann Kabel und Netzteil einzeln...
Ergänzung ()

Kassandra_89 schrieb:
Es wird sich aber erst etwas ändern wenn der Gesetzgeber (EU) eine Höchst- Verbrauchsgrenze festlegt.
Hat die EU schon längst, aber für den der wirklich zählt, der Standby Verbrauch, deshalb gibt es ja so sachen wie ATX12VO um eben diesen Standby Verbrauch weiter zu senken...
Sinnvoll wäre höchstens noch ein Grenzwert für den Idle Betrieb. Im Hoch Last Betrieb ist ein Effizenteres System besser wie viel es verbraucht ist da erstmal egal, ist dann halt einfach kürzer im Hoch Last Betrieb.
 
Zuletzt bearbeitet:
AlphaKaninchen schrieb:
@BigLA Am Besten Modular und dann Kabel und Netzteil einzeln...
Ergänzung ()


Hat die EU schon längst, aber für den der wirklich zählt, der Standby Verbrauch, deshalb gibt es ja so sachen wie ATX12VO um eben diesen Standby Verbrauch weiter zu senken...
Sinnvoll wäre höchstens noch ein Grenzwert für den Idle Betrieb. Im Hoch Last Betrieb ist ein Effizenteres System besser wie viel es verbraucht ist da erstmal egal, ist dann halt einfach kürzer im Hoch Last Betrieb.
Hab ich, aber an gescheite Kabel kommen? Nebenbei kosten die dann halt auch extra, außer man kauft ggf. ein überdimensioniertes NT...
Ergänzung ()

Habe gerade mal geschaut, selbst das 750 Watt Straight-Power hat noch min 1 4+4-Kabel, wenn man nu 2 8-pin´s bedienen möchte, braucht man auch min 1 Kabel extra...
und das ATX-Kabel!? Warum wird das nicht endlich mal als reines 24-pol. kabel angeboten? ich hab schon seit ewigkeiten mehr kein 20-pol-Buchse auf nem Mainboard gesehen...

Aber selbst bei den höheren Modellen (be quiet) ist zwar 1 dabei, aber erst ab 850 Watt ohne die zweigeteilte Variante als 2. kabel 8y-Kabel mit 1x 8pol und 2x4-Pol, was ja auch wieder extra Platz raubt... erst ab 850 Watt gibts ohne Y, zwar auch "nur 1x8 und 2x4 als separates kabel, aber immerhin..
Von den anderen kabeln (PCIe) nicht zu sprechen :D

ich weiss ja nicht, wie es bei anderen Herstellern aussieht..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
AlphaKaninchen schrieb:
Hat die EU schon längst, aber für den der wirklich zählt, der Standby Verbrauch, deshalb gibt es ja so sachen wie ATX12VO um eben diesen Standby Verbrauch weiter zu senken...
Ich denke, 0,5W sollte erstmal genügen. Wobei das immer noch nicht von allen Netzteilen eingehalten wird. Mehr als 1,5W sind mittlerweile aber die Ausnahme.
Sinnvoll wäre höchstens noch ein Grenzwert für den Idle Betrieb. Im Hoch Last Betrieb ist ein Effizenteres System besser wie viel es verbraucht ist da erstmal egal, ist dann halt einfach kürzer im Hoch Last Betrieb.
Unterschreibe ich sofort, das CPU m. Board sowie Grafikkarte bei ruhendem Desktop jeweils nie mehr als 10W verbrauchen dürfen.
Bei den APU´s gehts ja auch. 20W Systemverbrauch ist da eigentlich schon viel.
Der minimale Wirkungsgrad bei Netzteilen dürfte auch gern mal wieder um 10% angehoben werden.
Da muss natürlich daraufhin entwickelt werden. Das bekommt man nicht in einem Jahr hin.
Ohne Druck passiert aber nichts.

Wenn ich mir noch anschaue, wieviele Grafikkarten bei Multi-Monitorbetrieb grundlos 2 Gänge hoch schalten und beispielsweise von z. B. 5 auf 20W oder 12 auf 40W im Idle (Hab ich zuletzt mal gesehen) hoch gehen, dann besteht auch dort enormes Potenzial.
Kabel Fritzboxen sind tlw. auch enorme Energiefresser.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Darknesss schrieb:
Die sind aber schon auf die Idee gekommen, dass die >2kW auch einen Sinn haben.
Ja, die 2kW hatten definitiv Sinn für die Hersteller:
Einsparung in der Entwicklung und die Suggerierung, dass mehr Leistung automatisch besser saugen würde.

Das ist natürlich völiiger Unsinn für den Kunden. Ein Staubsauger mit 800W, wenn er vernünftig konstruiert ist, saugt nen 08/15 Billigsauger mit 2kW dennoch weg. Viel Leistung verbraten heißt nicht viel Saugleistung erzeugen. Das macht man auf anderen Wegen deutlich effizienter. Und siehe da, nachdem diese Verbote eingeführt wurden, konnten auch "niedrig" motorisierte Staubsauger plötzlich vernünftig saugen. Sowas aber auch.
Aber da die Kundschaft jahrzehntelang darauf getrimmt war, dass nur viel Leistung auch viel bringt, war der Aufschrei groß, dass man ja nun den Boden nicht mehr vernünftig saugen könnte.
 
  • Gefällt mir
Reaktionen: kingdomsknight
cypeak schrieb:
nach diesen maßstäben ist absolut ok wenn consumer-grakas demnächst 1kw aufnehmen, solange die performance hinten rauskommt, ist es ja quasi wurscht....?

Warum ist es dir denn nicht egal? Ob jetzt ein einzelner Gamer 2-3 Stunden am Tag 1,5kWh oder 0,5kWh verbraucht macht kaum einen Unterschied, den meisten wäre die Abwärme sowieso viel zu hoch.
Zudem skalieren die Karten nur bis zu einem gewissen Grad mit der Leistungsaufnahme, die Effizienz nimmt im Bereich von RTX 3080 & co. deutlich ab, die meisten hier betreiben sogar undervolting.

Und die Mittelklasse-Karten werden weiterhin verfügbar sein, man muss sich nicht genötigt fühlen immer das xx90 Modell zu kaufen, wenn man damit nicht einverstanden ist.
 
Wird mir zu heiß und wohl auch zu laut. Echt mal, die Abwärme meiner 2080 ist schon gut spürbar in meinem kleinen Büro, und die ist schon gedrosselt. Jetzt so locker 2x bis 3x die Hitze, nee Danke. Vielleicht kann eine 4070 die ablösen, wenn ich die 2023H2 für $1000 kaufen darf.

Was werden das eigentlich für Kühlungen? Hat da irgendwer Einsicht? Ich kann's mir einfach nicht vorstellen, wie das laufen soll.
 
Zurück
Oben