News AMD-CEO Lisa Su bestätigt: Zehn Mal mehr Radeon 9070 als normalerweise in Woche 1 verkauft

Kloin schrieb:
Einzelfälle (bin gespannt wie viele da einfach Glück haben und es nicht messen) von zu heißen Kabeln und geschmolzenen Terminals nur als "Leistung oder bewusste Entscheidung" von Nvidia zu definieren
Ja, wenn du gewisse Mengen an 5090 Custom Rechnern verkauft hast (natürlich mit aktuellen Kabeln/Netzteilen) und Kollegen darüber befragst ob es bisher RMAs gab und sie verneinen, musst du von Einzelfällen reden (von denen bisher im Kontext der 5090 berichtet wurde), etwas anderes zu sagen wäre falsch. Und ja, die Entscheidung muss bewusst getroffen worden sein, ich denke die Ingenieure dort wissen was sie tun.
Kloin schrieb:
und nicht als glücklichen besten outcome eines eklatanten Mangels der entweder aus Ignoranz oder Gier bei der Erstellung der BOM entstand
Reines Rechenexempel, ob das Gier oder Ignoranz sein muss, weiß ich nicht. Die Elektrische Sicherheit wird auf die Steckverbindung reduziert. Ist ja vorher auch bei vielen Karten mit einem 8Pin PCIe Anschluss so gewesen und ist nicht wirklich etwas neues, abseits der höheren Ströme die nun übertragen werden.
2.png

Rein grundsätzlich hast du schon recht. Das spreche ich dir nicht ab.
Kloin schrieb:
Vielleicht bündelt Nvidia ja bald 5090 und nachfolgende Karten mit Wärmebildkameras und Stromzangen, die Aktionäre würden es wohl feiern und Die Hard Fans als Feature feiern.
Das hätte man halt schon immer mitliefern müssen, auch bei Netzteilen, da die sowas gar nicht haben.
Was glaubst du wie viele Netzteile heutzutage abrauchen, weil diese gar keine Überwachung oder Sicherung haben? Streng genommen musst du im ATX bereich überall eine Wärmebildkamera und Feuerlöscher dranmontieren, am besten außen an das Gehäuse. ;)

Dass die 3090Ti den 12 Pin noch auf drei wires aufgeteilt hat ist so gesehen eine Altlast von den 3 8Pin.
Das wegzulassen ist eigentlich mehr oder weniger die logische Konsequenz. Bei einem 8 pin gehen dann im Extremfall 150W über ein Kabel und hast du dann noch billige AWG20 oder 18 dann raucht das auch in Einzelfällen ab.

Alesis schrieb:
Ist es eigentlich eine Adelung der AMD Produkte, wenn @Quidproquo77 unbedingt seine "ich mag AMD nicht" Meinung ständig beschreiben muss?
Ach ich sehe das als Training, in Gesprächen ruhig zu bleiben, kann das beruflich gut gebrauchen.
AMD würde ich in Privatrechnern rein aus irrationaler Nostalgie immer bei Gleichwertigkeit vorziehen. Darum lebt dort ein 5800X3D und hat kurzfristig eine 7800XT gelebt.
 
Zuletzt bearbeitet:
Werde mir wohl eine kaufen sobald sich die Preise richtung uvp und darunter eingependelt haben vorher auf keinen Fall
 
  • Gefällt mir
Reaktionen: Sun-Berg
Quidproquo77 schrieb:
Reines Rechenexempel, ob das Gier oder Ignoranz sein muss, weiß ich nicht. Die Elektrische Sicherheit wird auf die Steckverbindung reduziert. Ist ja vorher auch bei vielen Karten mit einem 8Pin PCIe Anschluss so gewesen und ist nicht wirklich etwas neues, abseits der höheren Ströme die nun übertragen werden.
Anhang anzeigen 1600456
Rein grundsätzlich hast du schon recht. Das spreche ich dir nicht ab.

Nun, die Specs der 8-Pin Stecker ist über 20 Jahre alt und besagt 150W pro Stecker.
In der Praxis vertragen diese Kabel und Stecker heutzutage mit AWG 18-16 Litzen, was man normalerweise hat, 220-290W pro Stecker, die Reserven sind also relativ gross.
Und die Schutzschaltungen bei brauchbaren Netzteilen dann doch umfangreich.

Der 12V HPWR oder 12V-2X6 verträgt 650W laut Specs bei max 30 Grad über Raumtemperatur, was in der
Praxis in einem geschlossenen Gehäuse nicht gehalten werden kann. Die Reserven sind also gar nicht vorhanden.
Mehr als 500-550W sollten es also pro Stecker eigentlich nicht sein, bei den Temps, die wir in der Realität am Stecker haben.

Dazu kommt noch, dass NV die Pins an der Buchse auf der Karte zusammenführt und die Belastung pro Pin nicht überwacht. Was natürlich höchst fahrlässig ist, da sich der Strom den Weg des geringsten Widerstandes sucht. Die Belastung kann, wenn es dumm läuft und man deutlich unterschiedliche Kontaktwiderstände hat, das Zulässige pro Litze, was etwa 9A max sein sollten, um das X-Fache überschreiten. Und dann schmilzt alles.

Der Stecker ist und bleibt Grütze und ist einfach schlecht umgesetzt und wird nicht überwacht was auf alle Fälle gemacht werden sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fahnder, Solavidos, Kloin und 6 andere
Krik schrieb:
Offenbar war das überhaupt kein Problem, dass AMD keine Karte herausgebracht hat, die mit der 4090 oder 5090 mithalten kann. Da hat hier mancher was ganz anderes prophezeit. ;)
Die mehrheit der Gamer zockt Esportstitel wie CS, Fortnite etc auf 720/1080p - denen gehen Systemrequirements von nem Indiana Jones das ausser nem Bruchteil eh keinen interessiert gepflegt am Allerwertesten vorbei da diese Titel sogar mit ner alten Karte wie ner GTX 1070 noch super spielbar sind - da braucht kein Mensch ne 5090.

Hier im Forum meinen einige nur weil irgendwo grad die fetteste aller Karten rauskommt müsste die instant jeder besitzen sonst bliebe die Gamingwelt stehen - nein, tut sie nicht. ;)
 
  • Gefällt mir
Reaktionen: Fahnder und cbmik
modena.ch schrieb:
Dazu kommt noch, dass NV die Pins an der Buchse auf der Karte zusammenführt und die Belastung pro Pin nicht überwacht. Was natürlich höchst fahrlässig ist, da sich der Strom den Weg des geringsten Wiederstandes sucht. Die Belastung kann, wenn es dumm läuft und man deutlich unterschiedliche Kontaktwiderstände hat, das Zulässige pro Litze, was etwa 9A max sein sollten um das X-Fache überschreiten. Und dann schmilzt alles.

Der Stecker ist und bleibt Grütze und ist einfach schlecht umgesetzt und wird nicht überwacht was auf alle Fälle gemacht werden sollte.
Ich weiß nicht, ob du es gelesen hast oder nicht, hier daher einfach nochmal der link dazu: post 235 von bad_sign
Die Situation ist anscheinend noch schlimmer, da offenbar die PCIe specc die Verbindung der Leitungen am stecker fordert. Ich hab gestern noch versucht, irgendwie mehr klarheit zu bekommen, ohne Norm aber tatsächlich schwierig. Für mich absolut nicht nachvollziehbar, mir fallen keine Gründe ein, warum man das so machen sollte, außer billig-schrott.

Auch Aussagen sind Quatsch, man sollte nur hochwertige Kabel von diesem und jenem Lieferanten nehmen. Das Kabel hat praktisch keinen Einfluss auf den Kontaktwiderstand (Fremdschichten) an GPU und Netzteil im Moment des "Ansteckens", wodurch sich unterschiedliche Übergangswiderstände einstellen müssen. Das geht gar nicht anders. Eine Gleichverteilung der Last auf alle 6stk 12V Adern ist pures Glück und nicht die Regel. Für mich ist der Standard betrieb (an einer 5090) sogar der, dass einzelne Adern mehr als 8A übertragen und damit außerhalb der Spec betrieben werden. Wie kann man sowas spezifizieren und für teuer Geld verkaufen.

Quidproquo77 schrieb:
ich denke die Ingenieure dort wissen was sie tun.
weiß nicht, mit meinem aktuellen Wissenstand kann ich das nicht bestätigen. Vielleicht ja doch, nur hatte dann ein Finanzguru das letzte Wort und hat enschieden, fünf cent für die Überwachung der einzelnen pins wegzulassen und sich an die spec zu halten. Oder sie wollen die schuld auf die spec abschieben. Ich weiß es nicht. Wie auch immer, als Kunde kann man in dem Fall nur verlieren.

Für mich ist derzeit zumindest der 12VHPWR Stecker ein Ausschlusskriterium für einen Kauf einer Grafikkarte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Solavidos, OldNewUser, modena.ch und eine weitere Person
stefan92x schrieb:
Absolut. Noch besser wäre natürlich, wenn AMD auf dem Preisniveau der Vorgänger (7700XT/7800XT) geblieben wäre und sich auch Nvidia dem wieder hätte annähern müssen,
Ist die 9070 wirklich der Nachfolger? Ich finde es mittlerweile sehr schwierig das über die Namensgebung fest zu machen, betrifft auch Nvidia. Mir persönlich ist die Namensgebung mittlerweile völlig egal. Am Ende zählt nur was man an Leistung für das Geld bekommt. Sie hätten die 9070 auch XCDZAÖER/"&$)$ nennen können (liest sich nur schwer). Wäre eigentlich egal.
Ich sehe mittlerweile die Namen nur noch als Abstufung innerhalb der gleichen Produktgeneration nicht mehr übergreifend in Bezug auf "Nachfolger". Ansonsten verrennt man sich in, zumindest für mich, komischen Diskussionen die eigentlich gar keinen Sinn ergeben.
 
  • Gefällt mir
Reaktionen: TomH22
modena.ch schrieb:
Der 12V HPWR oder 12V-2X6 verträgt 650W laut Specs bei max 30 Grad über Raumtemperatur, was in der
Praxis in einem geschlossenen Gehäuse nicht gehalten werden kann.
Das ist ja eine komische Auslegung, wenn die Raumtemperatur nicht festgelegt ist, gilt wahrscheinlich nur für klimatisierte Räume wie in den USA und manchen asiatischen Ländern üblich.
 
modena.ch schrieb:
Nöö die Vorgänger sind die 7700XT und 7800XT.
Die Mittelklassechips, nicht die 7900er
Kannst Du so sehen, aber dann ist das Argument ja auch tot, weil es ja mehr RAM als bei der 7700xt gibt bzw. nicht weniger als bei der 7800xt
 
DiePalme schrieb:
Ist die 9070 wirklich der Nachfolger? Ich finde es mittlerweile sehr schwierig das über die Namensgebung fest zu machen
Stimme dir zu, so richtig klar ist das nicht immer. Aber ich denke, hier kann man das ruhig so sehen. Während die 7900er von AMD klar als High-End-Produkt bezeichnet wurden, sprach man bei der aktuellen Generation ebenso klar davon, nur Mittelklasse zu bauen (und verzichtet konsequent auf eine 9080/9090)
 
  • Gefällt mir
Reaktionen: Fahnder
Bunhy schrieb:
Teilweise sind die Äußerungen an Dreistigkeit kaum zu überbieten und zu ertragen - jeder und alle anderen sind Schuld.
Von verdrehten Tatsachen bis hin zu glatten Lügen war alles dabei.
Kann sich nVidia problemlos leisten. Die Gamer kaufen trotzdem die regale leer, koste es was es wolle.
Besserung gibt es nur bei entsprechendem Kaufverhalten.
 
  • Gefällt mir
Reaktionen: Bunhy, Fahnder und eXe777
Cerebral_Amoebe schrieb:
Das ist ja eine komische Auslegung, wenn die Raumtemperatur nicht festgelegt ist,
Ich mag mich da irren, aber in der Spezifikation dürfte das so sichtlich auch nicht formuliert sein. Dort wird wohl eher kein Delta als Temperatur angegeben sein, sondern ein Absolutwert. Also wie auch in Datenblätter von allem Möglichen sowas stehen wie "bei 30 °C Umgebungstemperatur", "30 °C am Steckergehäuse" oder Ähnliches.
 
Das muss man mal zwischen den Zeilen lesen. Das ist mal eine Managementleistung. Den Start um zwei Monate verschoben, damit man die 10 fache Menge vorrätig hat. Das nenne ich mal top.
Und das die zehnfache Menge nicht ausreicht, das kann man wirklich niemanden vorwerfen.
 
modena.ch schrieb:
Und die sehen bei den neuen RX 9070er schon verdammt gut aus. Ziemlich auf auf einem Niveau mit NV zum Teil auch gegenüber den NVs deutlich überlegen (.H264, also für Twitch mit kleinen Datenraten)
Ich hatte mehr im Kopf überhaupt alle Sachen darstellen zu können teils hacks ja glaub mit VC1 bei älteren aber auch bei Auflösungen macht meine rx 5600xt bei >6k Auflösung eine Diashow.
 
stefan92x schrieb:
wenn AMD auf dem Preisniveau der Vorgänger (7700XT/7800XT) geblieben wäre
Diesen Preisbereich werden 9060 und XT bedienen. Die 9060 wird bestimmt 12GB haben und +12% vor der 7700 XT sein. Die 9060 XT wird mit 16GB kommen und + 14% vor der 7800 XT liegen.
 
Wie schade es ist, dass AMD nichts mehr im High End Segment anbietet. nVidia ist mir so unsympathisch geworden....die würde ich eigentlich gern meiden.
 
  • Gefällt mir
Reaktionen: Fahnder, Fyrex und Captain Mumpitz
Begu schrieb:
Für mich ist derzeit zumindest der 12VHPWR Stecker ein Ausschlusskriterium für einen Kauf einer Grafikkarte.


Im Ganzen muss ich dir ganz sicher zustimmen.

Hier würd ich sagen, bei einer Graka die so bei 300W TDP bleibt ist der 12VHPWR durchaus okay.
 
modena.ch schrieb:
Hier würd ich sagen, bei einer Graka die so bei 300W TDP bleibt ist der 12VHPWR durchaus okay.
Selbst dann hättest du im ungünstigten Fall immer noch bis zu 25A pro Ader/Pin, wenn die Last auf den einzelnen Pins nicht aktiv gesteuert wird. Mit den klassischen 8-Pin Steckern bräuchte man dann zwei Stecker, über die jeweils maximal 150W/12,5A gehen, was dann bei ungünstiger Verteilung effektiv auch das Maximum pro Ader/Pin wäre - bei mehr wäre ja gleichzeitig die Spezifikation des Steckers als Ganzes überschritten.
 
Weiss jemand von Treiberproblemen bei produktiven Programmen? Hab von Treiber Timeouts und Pauschalaussagen gelesen ,dass man doch eher bei produktiven Aufgaben eine Nvidia bevorzugen sollte.

Mich würde interessieren welche Programme Probleme bereiten und wo NV deutlich im Vorteil ist und warum man davon Nichts in den Tests liest?
 
Azeron schrieb:
Freut mich für AMD, würde mir aber trotzdem wünschen wenn es auch ein High End Modell gäbe das sich schlechtenfalls mit der 5080 messen kann oder bestenfalls sich zwischen der 5080 und 4090 ansiedelt, natürlich mit mehr VRAM als die 5080.
In manchen Spielen ist sie besser als ne 5080 (codbo6).
High end wäre mir auch lieber, wobei ne 9070xt problemlos 4k/144hz stemmt. Was sonst ist high end?
 
GreitZ schrieb:
In manchen Spielen ist sie besser als ne 5080 (codbo6).
Wobei CoD auf AMD Karten schon bei vorherigen Titeln immer sehr gut auf AMD lief. Du wirst aber solche Fälle äußerst selten finden. Die 5080 ist und bleibt die klar schnellere Karte im Mittel. Selbst die 5070TI ist im Mittel die leicht schnellere Karte. Ausreißer gibt es für beide Seiten immer wieder.
Selbst bei CPUs ist das manchmal so. Dieser neue Fallout Klon, (Namen vergessen) der in England spielt, da wird ein 14900k von einem 5800X3D geradezu zersägt und läuft darauf über 20% schneller. Das ist ein extremer Ausreißer, ansonsten liegt der 5800X3D im Mittel auch sehr klar hinter einem 14900k.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben