News AMD Vega: Entwickler-Grafikkarte nutzt 8- und 6-Pin-PCIe

Vega ist für mcih persölich interesanter als Ryzen :D, denk cpu wird noch warten müssen bis x299 aber die 780ti muss in rente
 
Ich wusste gar nicht, dass AMD derzeit einen TechDay veranstaltet. Außer dem Detail mit der Stromversorgung gibt es hier jedoch nichts Neues, richtig?
 
Es gibt schon neues, nur darf die Presse uns das noch nicht erzählen wegen NDA.
 
Wobei die Anzahl der Stromanschlüsse auf einem Entwicklerboard auch nichts aussagt...
 
Jain, wir können stark davon ausgehen, dass die Stromversorgung bei den Testkarten mindestens gleichwertig zu den Consumerbords, eher höher sein wird..
2x8Pin wie bei Fiji werden wir daher relativ sicher nicht wieder sehen.
 
Ausser bei Anbietern von Custom-Designs mit OC...
Hat man auch bei den RX480 gesehen. Referenz 6pin, OC-Designs 8pin.
 
Hätten die nicht die GPU früher ansetzen können. Die Warterei was ich mir nun endlich hole nervt gewaltig. Manchmal verstehe ich die Vertriebspolitik echt nicht, da hat der Konkurrent längst schon Karten draussen und bereitet sich vor, während hier um mehr als ein halbes Jahr später die neuen Karten des eigenen Lagers angekündigt werden. Der Kunde ist in der Zwickmühle und ärgert sich dann bei spät erscheinen das es nicht der große Wurft ist.

Was neues kaufen macht eh keine Sinn bei den paar Monaten. Wenn das nach all der Warterei nix wird, wird eiskalt nach grün gegriffen. Da pfeif ich dann auch auf Freesync beim Monitor den ich jetzt schon habe. Ein bisschen verstehe ich warum viele sich auf Nvidia einschwören.
 
Hoffentlich sind 8 und 6 Pin großzügig dimensioniert. Gerade in Sachen Effizienz hat AMD noch immer Nachholbedarf. Wenns keine zwei 8er werden ist das zwar schonmal ein gutes Zeichen, aber wie im Artikel geschrieben kommt die 1080 mit einem 8er aus. Das wäre für die Klasse auf Dauer ein schönes Limit.
 
@ koffeinjunkie: mimimi ... Dir ist klar du wiedersprichst dir selbst - "Was neues kaufen macht eh keine Sinn bei den paar Monaten."

Mit dem 6er Anschluss - der könnte doch eventuell sogar noch ganz wegfallen. Schließlich ist das Zusatzgeraffel mit USB-Schnittstelle wohl nicht mehr im Endprodukt vorhanden. Und zum Testen ist mehr Strom zu Beginn von Vorteil weil ja auch AMD sich erst mal an den Sweetspot was CPU Spannung etc. betrifft ran arbeiten muss.
 
koffeinjunkie schrieb:
Manchmal verstehe ich die Vertriebspolitik echt nicht,
Die Vertriebler hätten dir wahrscheinlich schon 10 Karten verkauft - wenn nur nicht diese blöde Technikabteilung wäre die unbedingt erstmal die Dinger bauen wollen bevor sie verkauft werden ;-)

High-End war für AMD nunmal nicht ohne HBM möglich und das musste nun in der zweiten Generation kommen! Mit 4GB kannste High-End nun mal abhaken.
 
ZuseZ3 schrieb:
Jain, wir können stark davon ausgehen, dass die Stromversorgung bei den Testkarten mindestens gleichwertig zu den Consumerbords, eher höher sein wird..
2x8Pin wie bei Fiji werden wir daher relativ sicher nicht wieder sehen.
Warum nicht, es gibt auch genug 1070/80 mit (unnötigerweise) 2x8Pin.
 
Nitschi66 schrieb:
High-End war für AMD nunmal nicht ohne HBM möglich und das musste nun in der zweiten Generation kommen! Mit 4GB kannste High-End nun mal abhaken.

Hier muss man ja auch beachten, die olle Vega war von der Rohleistung knapp über einer 1080, mit Optimierten Treibern könnte man vermutlich eine 1080Ti einkassieren oder gar mehr.. Schaut man sich den Schritt von 280 zu 480 an, ist das schon heftig.. Das gute an der Nummer ist aber, AMD wird bald wieder 20-30Mrd $ Wert sein.. Und dann kommen auch wieder die Investoren.
 
AMD-Mafiosi schrieb:
Hier muss man ja auch beachten, die olle Vega war von der Rohleistung in Doom unter Vulkan (also best case scenario für AMD) knapp über einer 1080, mit Optimierten Treibern könnte man vermutlich eine 1080Ti einkassieren oder gar mehr.. [...]

There, fixed it for you :kuss: Ich hoffe zwar auch auf eine entsprechende Leistung bei AMD, jedoch sollte man beim Hype-Train nicht zuviel Kohle schaufeln.

@Mods: Sry. für direkt Zitat, aber ihr versteht worum es mir hier geht ;)
 
Die Anschlüsse sind doch sowas von egal und sagen genau Null aus. Es gibt GTX 1070s mit zwei 8 Pin Snschlüssen und es gibt die R9 295x2 mit zwei Achtpin Anschlüssen.

1x8Pin + 1x6 Pin sind in der Klasse aber eh jahre lang schon standard und hätten auch bei den Fijis ausgereicht. Darüber lassen sich ganz offiziell 300 Watt realisieren, ein Wert den bisher kaum eine Karte in der Referenz wirklich ausgereizt hat.
 
Also wenn Vega auch so gut wird wie Ryzen, dann: "AMD is BACK" :D
 
slogen schrieb:
Also wenn Vega auch so gut wird wie Ryzen, dann: "AMD is BACK" :D

Dein Optimismus in Ehren aber hast du schon Infos über Ryzen die wir nicht haben? Ich wünsche es AMD ja wirklich aber ich wäre da noch nicht so voreilig. Ich erinnere mich da noch an die Titelzeile auf CB zum Bulldozer Release "Ein schwarzer Mittwoch"..
 
Ich warte wie viele andere auf konkretere Informationen bezüglich Vega, schön langsam wird es Zeit.

Brauche zwar keine neue CPU, aber Ryzen scheint ja nicht nur leistungstechnisch/innovativ sondern auch bezüglich des Preises sehr wettbewerbsfähig zu sein, das freut einen als PC "Enthusiast" natürlich sehr.

Bezüglich Vega bin ich etwas skeptischer, die wenigen vagen Spiele benchmarks (doom und starwars bf auf 4k) die man bis jetzt gesehen hat deuten auf eine Leistung ca auf gtx 1080 niveau hin, was ich trotz ca einem Jahr Verspätung im Gegensatz zur Konkurrenz zwar auch in Ordnung finde aber ich bezweifle ob AMD bei den Vega gpus auch so relativ niedrige/wettbewerbsfähige Preise fahren wird wie bei ihren neuen CPU's.

Immerhin ist es nicht nur eine komplett neue Architektur in die sie viel Entwicklungsarbeit gesteckt haben, sondern die Chipfläche ist relativ groß und der HBM2 Speicher ist auch teuer.

Selbst wenn die Preise niedriger als beim Fury/fury x launch werden (ca 600€ fury und 700€ fury x), viel zu teuer für die damals gebotene Leistung meiner Meinung nach.
Ich rechne damit das die Preise für die vega varianten etwas niedriger, bei ca 500-600€ liegen werden, für mich wäre das für die gebotene Leistung zwar in Ordnung aber nicht wirklich großartig.

Naja, ist aber natürlich nur spekulation, in den nächsten Monaten werden wir dann konkreteres erfahren.
 
Das Verbleiben oder der Wegfall des USB-Ports sagt nichts über den Stromverbrauch der Graka aus.
Viele vergessen anscheinend, dass es ein blauer USB3.0 Anschluss ist, der extern ebenfalls noch mit Strom versorgt werden kann.
Und die Debugging/Diagnose-Einheit verbraucht nicht ansatzweise soviel Strom wie ein Grafikchip, dafür sollte die USB-Versorgung allemal reichen.

Es wäre umgekehrt eher beim Platinendesign sträflich, wenn man die später entfallende Einheit dort mit bei der Stromversorgung aufnehmen würde.
 
Zurück
Oben