News Radeon Vega: Erste Fotos der neuen Grafikkarte zeigen Luftkühler

Geht es hier eigendlich noch jemanden so der denkt das es sehr sinnvoll is die grafikkarte abzukleben aber am modularen netzteil die stecker sichtbar zulassen nu kann man doch erkennen was fürn anschluss die karte brauch
 
@ayanamiie
Weißt du jetzt genau wieviel Strom die Karte braucht?
An dem Kabel hängen zwei Stecker dran, wieviele sind in der Karte?

Im 3dcenter Forum meinte ein Nutzer dazu:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11259990&postcount=1610

complicated schrieb:
Ich glaube auch nicht dass beim Abkleben vorgesehen war jemanden das Seitenteil des Gehäuses abnehmen zu lassen.

- Anweisung an Messemitarbeiter: Auf keinen Fall Gehäuse öffnen, sonst direkt gefeuert. Klebt alles ab damit man nichts sieht von den Innereien.
- Ankunft Presse
- Ankunft Management das mit der Presse spricht
- Management sagt Lieblings-Presse "Klar kannst du das Seitenteil abnehmen" denkt sich "ist ja alles abgeklebt auf Anweisung". Messemitarbeiter kriegt Herzinfarkt weil man doch einiges sehen kann.

Typische Messedynamiken.
 
Interessant waren die AMD Karten in der Vergangenheit vor allem wegen dem Preis und nicht wegen der Leistung. Ich rechne mit einer breiten Verfügbarkeit nicht vor Sommer und dann wird es interessant wie NVIDIA reagiert. Die können dann eine 1080 auch für 400€ Listenpreis verkaufen und ich glaube nicht das AMD da mitziehen kann.
 
SKu schrieb:
Gratulation, ein Jahr, nachdem die GTX1080 auf den Markt kam, wird Vega wahrscheinlich für den Endkunden verfügbar sein. Mehr als H1/2017 als Anhaltspunkt ist nicht bekannt. Gratulation, nach einem Jahr schaffen sie es einen Performancechip "deutlich" zu besiegen mit einem Big-Chip.

Ja, nur der springende Punkt ist, Vega bietet jetzt schon eine vollwertige 14/16nm Architektur und ist kein getunter Maxwell Shrink wie Pascal.

Viele der Features von Vega werden erst im Laufe der Zeit Unterstützung seitens der Entwickler finden (genauso wird das bei Volta GPUs sein, wenn diese denn vermutlich Anfang 2018 in den Markt gelangen), somit die GPU wie ein guter Wein mit dem Alter reifen.

Das ist bei AMD Karten schon seit einer ganzen Weile so, dass die volle Leistungsfähigkeit nicht direkt am Markstart entfaltet werden kann und trotz Optimierungen wird sich dieses auch dieses Mal - wegen der großen Anzahl an Neuerungen und mangelnder Vorlaufzeit durch Entwickler - nichts daran ändern. Ich gehe aber von 16 GB HBM2 in der Spitzenvariante aus und im Gesamtpaket mit der neuen Architektur dürfte man mit Vega10 im Vollausbau (vermutlich "RX Fury" oder "Fury 2") längere Zeit viel Spaß haben.

Aus den o.g. Gründen ist eine Vega10 Vollausbau-Karte auch einiges besser (durch die überlegene Architektur und das Mehr an besserem Speicher) als eine GTX 1080, mit welcher diese ungerechtfertigter Weise hier verglichen wird (den richtigen/echten Vergleich dürften die ersten Volta Ober-/Performance-Klasse-GPUs bieten, also GTX 1170 bzw. 2070 und 1180 bzw. 2080).

Ob man dafür bereit ist meiner Schätzung nach mindestens 799+ Euro für das Vega-Spitzenmodell mit 16 GB auf den Tisch zu legen, muss dann jeder selber mit sich ausmachen. Wenn die beschnittene Variante von Volta 10 auch mit 16GB HBM2 kommen sollte und dafür ab mindestens 200 Euro weniger (also ab 599 Euro) zu haben wäre, könnte das gerade noch so meine neue GPU werden (hm, schwierige Entscheidung), ansonsten wird es vermutlich Klein-Vega.

Möglich wären wohl auch Preise um 549 (Vega 10 Vollausbau) und 399 Euro (Vega 10 beschnitten), aber dann wären die GPUs wohl nur mit 8 GB HBM2 zu realisieren. Natürlich ist auch schwer einzuschätzen, ob nVidia die Preise für GTX 1070/1080 dann senken wird (was wiederum die Marge für AMD verringern würde bei den neuen Vega-GPUs), ob sich die Händler an die Preisvorgaben halten und wie gut die Vega-Chips/-GPUs zu Beginn verfügbar sein werden.

Natürlich ist das alles Spekulatius was die Preise angeht und Ausstattung angeht, warten wir es also einfach 'mal ab ;).

Cyberfries schrieb:
Also, meinst du mit "Klein-Vega":
- Vega 11, also den Polaris 10 Nachfolger?
Achja, weisst du sicher dass eine Polaris 10 Auffrischung als RX580 kommt?

Achja, weisst du sicher dass eine Polaris 10 Auffrischung als RX580 kommt?

Genau den, Vega11 (Klein-Vega) meine ich, Vega10 ist als Groß-Vega-Chip eigentlich schon bestätigt (bei AMDs aktuellen Ressourcen ist nicht davon auszugehen, dass es noch einen noch teureren Vega11 Chip oberhalb von Vega10 geben wird, zumal die Klientel dafür sehr spärlich wäre und die Vega10 X2 Dual-GPU Karte - als mögliche "RX Radeon Duo Pro" oder "Radeon Pro Duo 2" - das Prestige-Produkt für semi-professionelle Nutzer bleiben dürfte).

Dafür ist Polaris (10) noch viel zu neu und wenig aufgebohrt worden, um es dann schon nach knapp einem Jahr auf's "Alteisen" zu werfen und so schnell wird Polaris 10 nicht in der Versenkung verschwinden oder bspw. auf RX 560 Niveau herunter gestuft werden, dafür ist es noch etwas früh und wäre es eher unwirtschaftlich.

Ob die aufgebohrte Karte wieder eine "80er" (also RX 580) wird, ist da eigentlich egal, wenn der Preis ähnlich wie jetzt angesetzt wird und die Leistung nur etwas aufgebohrt worden ist (etwa wie bei der R9 390 im Verglich zur R9 290, vielleicht mit GDDR5X Speicher, allerdings mehr Speicher (12 GB) wird es wenn dann vermutlich nur für Klein-Vega GPUs geben) ... für diese Praxis sprechen doch seit Jahren die Refreshs von AMD und verwerflich ist daran auch nichts.
 
Zuletzt bearbeitet:
Warum sollte ein Vega 10 im Vollausbau mit 8GB HBM2 549€ kosten, wenn zuvor der Fiji-Vollausbau mit 4GB HBM 699€ gekostet hat zum Start?
 
SKu schrieb:
Warum sollte ein Vega 10 im Vollausbau mit 8GB HBM2 549€ kosten, wenn zuvor der Fiji-Vollausbau mit 4GB HBM 699€ gekostet hat zum Start?

Weil hier viele der Meinung sind sie bekommen von den gutherzigen AMD eine Karte die schneller ist als die 1080 zu einem geringeren Preis ;)
 
Das Netzteil hat 6 * 6 + 2 Pin PCIe und ist teilmodular (SP-1200MPCBUS von Thermaltake). Es wird nur ein 6+2 Pin Stecker verwendet (siehe Video). Am befestigten Strang sind lediglich der 24 Pin ATX, ein EPS und ein eATX (4 + 4) Pin Stecker. Das bedeutet also 150 Watt über externe Versorgung und maximal 75 Watt über den Slot. Ergo ist die TDP des gezeigten Modell-Prototypen < 225 Watt.
 
Ich finde es lustig, wie selbstverständlich man von diesen aberwitzigen Preisen ausgeht. Da hat Nvidia's Strategie anscheinend perfekt funktioniert. 2012 Oberklasse GPU für 500€, 2016 Oberklasse GPU 700€, selbst die bereits absurd teure Titan ist teurer geworden! :lol:

Ich glaube auch nicht, dass AMD's High End Chip weniger als 650€ kosten wird, doch im Gegensatz zu Nvidia bietet er mit HBM2 einen echten Grund für höhere Preise.

Und was den Speicher angeht: klar 16 wären schöner, schon weil die RX 480 8 GB hat, aber ich bin mir sicher dass auch 8 völlig ausreichend sein werden. AMD hat es selbst angesprochen, dass heutzutage viel mehr adressiert als benötigt wird. Nur weil ein Rise of the Tomb Raider 8 GB belegen kann, heißt es nicht dass das Spiel mit 4 GB kaum spielbar ist. Der Speicherbedarf ist wegen der 8 GB Konsolen deutlich gestiegen, aber er wird nun nicht immer weiter steigen. Man sollte Kasmopayas lustigen Zettel nicht unbedingt ernst nehmen :D
 
SKu schrieb:
... sollte ein Vega 10 im Vollausbau mit 8GB HBM2 549€ kosten, wenn zuvor der Fiji-Vollausbau mit 4GB HBM 699€ gekostet hat zum Start?

Weil man die Leistung nicht sofort wird auf die Straße bringen können (was aus wirtschaftlicher Sicht natürlich ein großer Nachteil für AMD ist/war, wenn man neuen Features/Innovationen puschen will/wollte, mit denen man so früh noch nicht glänzen dürfte können/konnte).

Auch wenn sich die Unterstützung von DX12/Vulkan Low Level APIs in Spielen - wie von Raja Koduri im PC World Interview angedeutet - bessern sollte, so wird man mit nur 8GB HBM2 (wobei die Speichertechnik vermutlich günstiger sein dürfte als HBM1 im Anfangsstadium, auch schon, weil HBM2 schon eine ganze Weile länger läuft) sich trotzdem an den Leistungsdaten der Konkurrenz mitorientieren müssen (vermutlich 5-10% max über einer GTX 1080 (OC)).

Außer von Early-Adoptern, Enthusiasten (auch wenn es wohl im Gegensatz zur Titan X(P/rev.2) keine vollwertige Enthusiastenkarten werden wird, sondern eine Einstiegs-Enthusiastenklasse-Karte wie damals die R9 Fury X und GTX 980Ti) und Fanboys wird AMD sonst keine (GTX 1080Ti und Titan X(P/rev.2)) Mondpreise verlangen können oder 16 GB HBM2 im Gegenzug bieten müssen.

Ich gehe davon aus, dass AMD von Fiji gelernt hat, ansonsten wird es ein sehr schleppendes/schwaches Geschäft werden und der Zeitvorteil gegenüber nVidias nahender Volta-Generation wie Eis in der Sonne dahinschmelzen, was man sich eigentlich nicht leisten kann.

So gesehen ist man dann in einer Zwickmühle, weil nVidia die Preise der Oberklasse-/Performance-GPUs kurz nach Marktstart von Vega leicht senken dürfte (bspw. bei der GTX 1080 auf 499-549 Euro) um AMD ein wenig die Marge/Gewinne zu verderben (denn nVidia kann sich das gut leisten) und die in DX11 schnellere GTX 1080Ti preislich besser positionieren zu können.

Mit Gutherzigkeit/Samaritertum hat das wenig zu tun, sondern mit Marktanteil/Markenname und wirtschaftlicher Notwendigkeit. Da werde ich auch mit Sicherheit nicht alleine dastehen, nicht dazu bereit zu sein mehr als maximal 549 Euro für einen Vega10 Vollausbau (Billigst-Custom-Version, denn die jetzigen 599 Euro für die GTX 1080 gelten auch für die Billigst-Custom-Version) mit nur 8 GB HBM2 zahlen zu wollen und AMD muss sich am Kunden orientieren und nicht umgekehrt.

Naja, warten wir es ab wo die Preise kurz vor dem kommenden Weihnachtsgeschäft (Oktober bis November 2017) liegen werden. Dass es am Ende 10% bzw. ca. 50 Euro mehr werden, weil der Euro auf 0,95 des Wertes des US-Dollars oder noch weiter absinkt wäre auch denkbar bzw. darüber wird momentan bankenseitig schon spekuliert.

zeedy schrieb:
Der Speicherbedarf ist wegen der 8 GB Konsolen deutlich gestiegen, aber er wird nun nicht immer weiter steigen.

Das wird sich dann mit der Speicherausstattung der XB Scorpio von Microsoft zeigen, ob man weiter an der Speichermenge schrauben wird.

Wenn man dieser Ankündigung Glauben schenkt (bei der einem schon mulmig werden kann):

AMD-VEGA-20-specifications.jpg

könnten im kommenden Jahr schon 16 GB High-End bzw. 4K/UHD Standard werden, auch wenn Koduri meint weniger in Spielen zukünftig brauchen zu müssen bzw. durch die Architektur effizienter zu sein.

Er kann es den Entwicklern aber nicht vorschreiben wie ausufernd diese im High-End Bereich bzw. bei Texturdetails mit Speicherressourcen umgehen, wenn "eine Handvoll Leute" schon 16 GB GPUs dieses Jahr kaufen sollten, ist damit auch schon ein Präzedenzfall bzw. eine Anwendungsberechtigung für Entwickler gesetzt, das sollte man nicht vergessen ;).


P.S.: Solange soll es wohl nicht mehr dauern bis die GTX 1080Ti auf den Markt kommen bzw. angekündigt wird, laut Wccftech schon auf der Pax East im März.
 
Zuletzt bearbeitet:
tja so ist das bei AMD..

die Leute auf die neuen Grafikartengeneration anfixen ...dazu immer nur ein bischen verraten...und dann beim Release abwarten was die User zur Karte sagen....und wenn sie schlecht bewerten ..hört man nix mehr von AMD..:cool_alt:

ich such auch noch ne Karte mit USB Anschluss..wo ich mein Toaster anschliessen kann ..beim Zocken erreicht der Toaster die gewünschte Temperatur :D
 
Oops, laut Fudzilla sieht es so aus, als ob Jen Hsun Huang und Co. VW als Autonomous Driving Partner verloren hätten und Qualcomm Ihnen die Butter vom Brot gestohlen hätten :D ... naja, es bleibt nVidia ja wohl noch die auf Huangs Präsentation angekündigte Partnerschaft mit Audi - auch wenn Audi zum VW Konzern gehört - nehme ich an.
 
Zuletzt bearbeitet:
zeedy schrieb:
Man sollte Kasmopayas lustigen Zettel nicht unbedingt ernst nehmen :D


ich halte von dem Zettel auch nicht viel, wenns nach ihm geht müsste die Karte 32GB haben, besser 64 ... aber ... ändert nicht dran dass die Karte sofern sie TITAN X P Niveau und darüber erreichen sollte mit 16GB deutlich ausgeglichener wäre. Wären Imho 2x Fury X Leistung und keiner wird sagen dass diese ausreichend vom Speicher bemessen ist. Falls doch ist wohl ne GTX 980 TI overkill was Ram angeht?
 
Ach Mädels, es läuft doch wie folgt:

Hat Vega die Leistung einer Titan, kostet sie auch so viel. Liegt sie auf dem Level einer 1070, wird sie erst mal für das Geld gelistet. Wegen des HBM Speichers greifen die Leute vermehrt zu AMD, sodass NVIDIA den Preis für alle Karten senkt. AMD muss mitziehen und wir haben bessere Preise.

Als grüner Fanboy sollte man übrigens nicht so sehr auf AMD rumhacken und sie schlecht machen. Wenn jeder nur noch grün kauft, gibt es rot irgendwann nicht mehr und dann schauen alle dumm.

Dann gibt es jedes Jahr ein Modellpalettenupdate mit 5-10% Leistungsplus und 50-100€ Preisplus

Ich weiß nicht, wie man so bescheuert sein kann und ausschließlich den unangefochtenen Marktführer supporten kann. Das ist auf lange Sicht wirklich die dümmste Idee, die man haben kann.
 
zeedy schrieb:
Man sollte Kasmopayas lustigen Zettel nicht unbedingt ernst nehmen :D

Sein Zettel hat aber bis jetzt gestimmt. Ich würd sogar sagen auf Moore's Law Niveau.

Aber irgendeinmal ist halt Schluss und wenn man wirklich was neues will, müssen brandneue Fertigungen für Chips her (Wir träumen ja schon seit Jahren auf diese Kohlenstoffdinger z.B.) um die gewaltigen Datenmengen, die nunmal fast proportional ansteigen, auch in Zukunft verarbeiten zu können.
 
Zuletzt bearbeitet:
Nichts genaues weis man nicht... ob das so sinnvoll is? Ein fettes engineering sample was auch gerne mit dem Kommentar "wirds so niemals geben, aber hey - schauts mal was das Ding kann!" wäre nett gewesen. So bleibt halt immer das Geschmäckle ala Bulldozer usw. Megahype aber nix geliefert.

So halten die imho keinen davon ab sich ne Nvidia Karte zu kaufen. Für Leute die jetzt ne Karte brauchen is der Infofluss viel zu gering. Da lohnt es sich nichtmal auf Vega zu warten, da man nichtmal weis was man "WANN" dafür bekommt.

1 Halbjahr... danke... xD
Morgen oder Ende Juni.... kannst als Motorradhersteller machen, aber nicht als HW Hersteller. AMD besitzt nach dem Bulldozer Fiasko keinerlei Kredit mehr. Worte hör ich wohl - ohne was zu sehen kein warten und kein Geld.
 
Krautmaster schrieb:
Wären Imho 2x Fury X Leistung und keiner wird sagen dass diese ausreichend vom Speicher bemessen ist. Falls doch ist wohl ne GTX 980 TI overkill was Ram angeht?

Nö, 6 GB sollte man heutzutage schon haben, wenn man auf die höchste Texturqualität nicht verzichten möchte. Kostet ja keine Leistung. Aber sehr viel mehr als das werden Spiele denke ich in den nächsten 2 Jahren nicht brauchen. Brauchen, nicht belegen. 16 GB HBM2 machen die Karte zwar attraktiver, aber auch deutlich teurer. Mehr als ein nice to have ist es nicht. Und ich meine, später, wenn die Verfügbarkeit von 8 GB stacks gegeben ist, kann man ja eine extra Edition für die Enthusiasten nachreichen.
 
ZeT schrieb:
So halten die imho keinen davon ab sich ne Nvidia Karte zu kaufen. Für Leute die jetzt ne Karte brauchen is der Infofluss viel zu gering. Da lohnt es sich nichtmal auf Vega zu warten, da man nichtmal weis was man "WANN" dafür bekommt.

Na dann verlink uns doch mal die Nvidia Karte die Du gerade eben gekauft hast.
Hast Du keine gekauft dann kannst deinen Beitrag auch löschen damit hier keiner seine Zeit damit verschwendet den überflüssigen Schwachsinn zu lesen.
Ist ja nicht so das es nicht schon dutzende vorher geschrieben haben.
 
Zurück
Oben