News AMD verrät Termin für Radeon R9 290X BF4 Edition

Lars_SHG schrieb:
Ein schlechtes Zeichen..........

In Australien gib das Pre-Order XFX Radeon R9 290X Battlefield 4 Bundle für 799 AUD bei PLE Computers, da der Laden seit 20 Jahren existiert, würde ich das Angebot als recht seriös einschätzen.

Ohne Steuern wären das 726 AUD -> 516€ bzw. 614€ mit MwSt

Ergänzung: Es geistert auch ne Zahl von 4999 Yuan für die 290X rum. Das sind 599€ bzw. mit 19% statt 17% MwSt 610€
 
Zuletzt bearbeitet:
Wettvorschlag: Die R9 290x gibt es bis 24.12 NICHT UNTER € 700,--

Ach ja und alle die die Marketingabteilung so loben weil jetzt so viel über AMD geredet wird sollten sich mal darüber Gedanken machen dass mehr als 70% der Posts negativ sind. Achso, das sind ja alles Nvidia-FB´s - langsam vergeht mir das Lachen über soviel Naivität
 
Zuletzt bearbeitet:
Bei Amazon dürfte man allerdings noch die Bestpreisgarantie haben, für Vorbesteller.

GTA 5 kostete zuerst auch 75€ und bei Release war der Preis ja bei 50€ irgendetwas und die Differenz hat Amazon wieder aufs Konto verbucht.
 
deathscythemk2 schrieb:
@LundM
Du verstehst Autovergleich ja offensichtlich. Tatsächlich ist es so, dass ein 1.2er oder 1.4er Motor mehr Sprit bei 180 verbraucht als ein 3l Motor. Offensichtlich lässt sich das auch auf GraKas übertragen. Kleinerer Chip + hohe Leistung = mehr Stromverbrauch als großer Chip und + hohe Leistung. Wobei die Leistung natürlich die gleiche bei beiden ist.
Das würde für mich die Frage aufwerfen, warum AMD die Chips nicht einfach vergrößert? Liegt das an den Herstellern?

richtig bei 180 :)

wen du gut schaust sprach ich von volllast :)

und da darf es nicht mehr der fall sein :p
sonst ist der kleine motor inefizient.

und ich denke nicht das du deine grafikkarten bei 65% last begrenzt

das du natürlich leichter aus einer titan die leistung raus bekommst ist klar
daher läuft die titan auch mit handbremse.

unter wasser zeigen die leute ja sdas 1200-1300 mhz mit bios flash laufen.
und da kann amd dann halt klaro nicht mehr mithalten.

warum sie keinen so monster chip bauen?
1 weils teuer ist das zu entwickeln weil komplizierter
2 teure fertigung da viele chips teil oder ganz defeckt sind
3 du mehr waver platz brauchst somit weniger chip je waver bekommst = mehr kosten.
machbar wäre bestimmt auch ein doppelt so große extrem hyper ultra 3 fach titan

kostet dann halt 4-5k je stück (profi bereich woll 10-20k) lohnt sich wirtschaftlich aber nicht weil grakas einfach unendlich in sli/crosfire gehängt werden können theoretisch.

zumahl wen die fertigung nicht 100% ausgereift woll von 100 1 teil funktions technisch brauchbar ist.

und 28nm ist nicht ready dafür eher 45nm das wäre dann zu groß und zu warm und die latenzen könnten auch schon probs geben.

dazu ist denk ich aber eh erst eine andre fertigung größe und vor allem technik wichtig die technik müsste viel genauer feiner und fehler freier werden.
 
LundM schrieb:
es ist grade zu peinlich das amd mit einem kleineren hubbraum (transistor zahl bzw rohleistung) mehr energie verdonnert als nvidia mit dem echt fetten und als v10 beschimpfbaren titan chip.

Ein Großteil der Energieprobleme kommen aus dem 512-Bit Interface. Es gab noch keine Karte, die mit so einem fetten Bus sparsam war. Normalerweise ist AMD eher bei kleineren Interfaces und hat dafür den Takt immer bis zum Anschlag gedreht.

--> Findet diesen Schritt niemand ungewöhntlich? Normalerweise würde das eher Nvidia machen, aber die haben anscheinend aus ihren Fehlern von beispielsweise den GT200ern gelernt.


LundM schrieb:
alles in allem hat amd das was sie im cpu bereich gemacht haben im grafikbereich auch gemacht. nichts
takt hoch doppelten verbrauch und sich aufregen das rote zahlen raus kommen.

Irgendwie sieht mir die R90-290(X) eher nach erneuter Brechstange aus. Sofern die geleakten Daten stimmen, ist das jedenfalls keine echte Detailarbeit. Warum spukt bei der Geschichte nur die HD7990 bei mir im Kopf herum?


LundM schrieb:
die gcn 2.0 ist ne verarsche wen man ma leistungs + zu gcn 1 anschaut und mit dem andern auge auf die rohdaten schaut.
dann wird jeder merken hopla das sind fast die selbe % zahlen beim +

In anderen Foren hatte jemand erwähnt, dass GCN 2.0 nur etwa 5% effizienter wäre als GCN 1.0. Ich habe dafür noch keine Quellen, will es nur einmal erwähnt haben. Vielleicht weiß ja jemand hier mehr oder kommt später darauf zurück ;)


LundM schrieb:
also fazit amd hat in den 2 jahren nicht viel gemacht. deutet abert auf ne starke folgekarte hin.
weil irgent wo ging die entwicklungs zeit hin. und die 290X hat sie 1000% nicht bekommen. das ist einfach nen aufgebohrter chip it deutlich mehr rohleistung und kleinen optimierungen.

Zurzeit würde ich mir überhaupt keine neue Grafikkarte holen. Die 20nm-Nachfolger kommen schon in 2014. Ich würde mich totärgern, falls ich mir jetzt eine neue GPU zulegt und in ein paar Wochen kommt das groß Kübeln.


deathscythemk2 schrieb:
@LundM
Offensichtlich lässt sich das auch auf GraKas übertragen. Kleinerer Chip + hohe Leistung = mehr Stromverbrauch als großer Chip und + hohe Leistung. Wobei die Leistung natürlich die gleiche bei beiden ist.
Das würde für mich die Frage aufwerfen, warum AMD die Chips nicht einfach vergrößert? Liegt das an den Herstellern?

Die Sache ist nur wieder das 512-Bit Interface. Damit kannst du den Takt nicht so hoch drehen wie die 384-Bit der Titan. Der Stromverbrauch und die Abwärme steigen dir sonst durch die Decke. Da kann man durchaus sagen, die R9-290X wäre das Equivalent von Nvidias Fermi.


Dai6oro schrieb:
Dann Vergleich OC mit OC. Die R9 290 (ohne X) wird allem Anschein nach mit OC (bzw. WerksOC) an die Titan @ Stock kommen. Da fehlt schließlich nicht viel wenn man die Benches betrachtet, von denen keiner weiß ob Sie stimmen. Kommt die Karte wirklich bei ca 449€ raus (Straßenpreis) hast dein P/L Knaller in dem Bereich.

Aslo abwarten. Für P/L war Nvidia noch nie berühmt.

Woah, lass die R9-290 noch aus dem Spiel. Über sie gibt es noch kaum Daten. Vorallem fall nicht gleich mit irgendwelchen OC-Versionen durch die Tür. Das kann theoretisch noch Monate dauern bis diese Versionen kommen.

Das OC-Potential der 290er ist auch noch ungeklärt. Allerdings dürften diese Karten von den Werten her nicht hoch kommen. Die 7970 GHz war auch schon ein halber Schluckspecht. Ihre Nachfolger werden das nicht viel besser machen ...


--> Außerdem weiß noch niemand um wie viel die R9-290 im Vergleich zur X-Version abgespeckt ist. Folglich kannst du auch noch nicht sagen wie gut OC funktionert = reine Spekulation!


Dai6oro schrieb:
Wegen dem OC: GCN hat sich bisher hervorragend takten lassen. Die 90° beziehen sich offensichtlich auf Furmark wobei wir ja wissen dass die Titan schon bei 80° throttelt. Ein Titan ohne Handbremse im Furmark wird sicher genauso warm und schluckt einiges mehr. Daraus eine schlechte OC Fähigkeit abzuleiten ... Na Ja.

Furmark hin oder her, ich glaube jedenfalls nicht an kühle und leise neue Karten in dieser R9-Generation. Irgendwoher muss die zusätzliche Leistung ja kommen. Ohne Wasserkühlung oder durch extrem hohe Drehzahlen bedingte Lautstärke sind die Tode, die du dieser Karte evtl. sterben musst.

Volker hat sich schon skeptisch geäußert. Ich teile seine Vorbehalte. Mir ist es lieber, wenn sich meine Karte (unabhängig vom Hersteller) selbst herunterregelt und dafür länger druchhält als eine Hardware, die sich selbst "verheizt".

--> Die Titan ist für ihre Klasse erstaunlich sparsam im Verbrauch. Da stecken einige ausgeklügelte Ansätze im Paket. AMD könnte auch einmal wieder anfang sich über Energieverbrauch gedanken zu machen. Vor ein paar Generationen waren sie nämlich in dieser Kategorie noch führend(!).
 
deathscythemk2 schrieb:
Das würde für mich die Frage aufwerfen, warum AMD die Chips nicht einfach vergrößert? Liegt das an den Herstellern?

XD weil sich die Chipgrösse Automatisch ergibt aus den Grössen der Teilbereiche.
Und je kleiner der Chip, desto günstiger zu fertigen.
 
Entschuldige Hoschi aber deine Spekulationen sind auch nur reine Mutmaßungen und zwar ohne jegliche Belege oder Hinweise die du liefern kannst. Ich kann auch nur spekulieren aber tue dies aufgrund von dem was vermutlich bereits bekannt ist:

OC R920 und R9290x

http://images.gamestar.de/images/idgwpgsgp/bdb/2426390/944x531.jpg

Ob das nun stimmt vermag ich nicht beurteilen, aber es widerspricht schon mal deiner Vermutung dass es sich bei Hawaii um ein Karte handelt die man kaum OCen kann. In diesem Fall kommt eine R290 OC an ne Titan OC ran. Ich jedenfalls denke dass sich Hawaii nicht schlechter OCen lassen wird als Tahiti. Du behauptest das Gegenteil und nun? Mir isses eigentlich echt egal was du darüber denkst.

Derzeit deutet jedenfalls nichts auf eine schlechte Performance von Hawaii hin. Inwieweit Full hd überhaupt von Belang ist sei dahingestellt:

http://www.3dcenter.org/news/dritte...nce-pendelt-sich-knapp-ueberhalb-der-geforce-

Ich kann nur das ganze Miesmachen im Vorfeld nicht verstehen. Kauft euch halt eure Titan/GTX780 oder sonstwas und werdet glücklich. Langsam nervt dieser Kindergarten hier.
 
Was heißt miesmachen? Neben den von dir gelinkten Folien gibt es eben auch Leaks, welche die 290x eben nicht mehr ganz so gut aussehen lassen. Für dich mögen Temperatur und Verbrauch nicht so wichtig sein. Das ist auch völlig in Ordnung. Aber für mich und andere sind das eben schon Kritwrien, die mit in die Kaufentscheidung mit einfließen. Und für mich hätte die Karte erheblich an Atraktivität verloren, falls das was in den Leaks bezüglich Verbrauch und Temperatur angedeutet wird auch später zutrifft.
 
Dai6oro schrieb:
Entschuldige Hoschi aber deine Spekulationen sind auch nur reine Mutmaßungen und zwar ohne jegliche Belege oder Hinweise die du liefern kannst.

Machst du Witze? Wenn wir endlich klare Endergebnisse hätten, bräuchten wir die Packung Spekilatius hier nicht!


Dai6oro schrieb:
Ich kann auch nur spekulieren aber tue dies aufgrund von dem was vermutlich bereits bekannt ist:

OC R920 und R9290x

http://images.gamestar.de/images/idgwpgsgp/bdb/2426390/944x531.jpg

Du sagst es selbst! Von allen aktuellen Benchmarks ist dieser der mit Abstand seltsamste. Die Benches haben nicht umsonst viel Kritik eingesteckt. In anderen Leaks mit mehr Spielen ist die R9-290X gerade einmal 1% schneller als die Titan. Bei anderen Games sie teilweise ein Stück zurück.

--> Das ist wesentlich realistischer! Daneben will ich keine nicht nachvollziehbaren OC-Werte, sondern Stock-Clocks. Ansonsten kann das Ergebnis verfälscht werden!


Dai6oro schrieb:
Ob das nun stimmt vermag ich nicht beurteilen, aber es widerspricht schon mal deiner Vermutung dass es sich bei Hawaii um ein Karte handelt die man kaum OCen kann. In diesem Fall kommt eine R290 OC an ne Titan OC ran. Ich jedenfalls denke dass sich Hawaii nicht schlechter OCen lassen wird als Tahiti. Du behauptest das Gegenteil und nun?

Erstens behauptet niemand, dass Hawaii schlecht wäre - sondern nur "durchwachsen".

Die OC-Benchmarks sind ja schön und gut. Aber in jedem Test hat man ein Gesamtbild aus Laustärke, Temperatur und Leistung (+Preis). Wir könnten hier jetzt genau so gut die +30% OC-Ergebnisse von Raff aus dem PCGH-Forum dazwischenquetschen und schon würde sich das Bild ändern.

Man kann theoretisch jede Karte übertakten. Die Frage wäre in diesem Fall allerdings nur:
"Wie lange lebt diese Stück Hardware dann?"


Dai6oro schrieb:
Mir isses eigentlich echt egal was du darüber denkst.

Warum schreibst du dann?


Dai6oro schrieb:
Derzeit deutet jedenfalls nichts auf eine schlechte Performance von Hawaii hin. Inwieweit Full hd überhaupt von Belang ist sei dahingestellt:

http://www.3dcenter.org/news/dritte...nce-pendelt-sich-knapp-ueberhalb-der-geforce-

Für Full-HD braucht man keine Super-Highend Grafikkarte - das können die Mittelklassekarten schon. Solange kein massives SGSSAA+ verwendet wird, geht die Relevanz zu mindestens 1440p oder gar 4k. Da die Titan hierfür schon quasi zu langsam ist, wird die 290X daran wenig ändern.


Dai6oro schrieb:
Ich kann nur das ganze Miesmachen im Vorfeld nicht verstehen. Kauft euch halt eure Titan/GTX780 oder sonstwas und werdet glücklich. Langsam nervt dieser Kindergarten hier.

Das Miesmachen hat kaum mehr etwas mit Vernunft zu tun. Die Radeon-R9-Serie wurde die letzten Wochen in den Himmel gelobt und langsam kehrt Ernüchterung ein. Einige User nehmen das AMD scheinbar übel und jetzt folgt "die Rache der Verschmähten" ... übertrieben, ja. Aber immerhin unterhaltsam ;)
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Die Sache ist nur wieder das 512-Bit Interface. Damit kannst du den Takt nicht so hoch drehen wie die 384-Bit der Titan. Der Stromverbrauch und die Abwärme steigen dir sonst durch die Decke. Da kann man durchaus sagen, die R9-290X wäre das Equivalent von Nvidias Fermi.

Volker hat sich schon skeptisch geäußert. Ich teile seine Vorbehalte. Mir ist es lieber, wenn sich meine Karte (unabhängig vom Hersteller) selbst herunterregelt und dafür länger druchhält als eine Hardware, die sich selbst "verheizt".

--> Die Titan ist für ihre Klasse erstaunlich sparsam im Verbrauch. Da stecken einige ausgeklügelte Ansätze im Paket. AMD könnte auch einmal wieder anfang sich über Energieverbrauch gedanken zu machen. Vor ein paar Generationen waren sie nämlich in dieser Kategorie noch führend(!).

geb dir recht bis auf das 512 bit interface.

dann müsste die 7970 ja sparsam sein da 384 bit wie titan.
so viel macht das dann nicht aus.

die haben einfach 2 jahre den finger im po gedreht und gedacht nvidia wird es schon verbocken und fermi 2.0 bringen.

Richtig amd war zb in der 5000 nvidia weit weit vorne weg gezogen.
aber bei der 6000 haben sie dann gepennt. nvidias 500 war genial.

die 7000 ist ok so lang man nicht in den 9er bereich geht
nvidia hat inen aber eine hammer architektur vorgesetzt.

und amd hat sich wider ausgeruht und die 200 reihe ist ein full faile.
zumindest wen sie GCN 2.0 dazu sagen.

ist nix andres wie gcn 1.0 mit mehrrohleistung.

weil ganz erlich die 5-7% was GCN 2.0 an efiziens größen bereinigt gebracht hat ist für 2 jahre sehr schlecht.


Haldi schrieb:
XD weil sich die Chipgrösse Automatisch ergibt aus den Grössen der Teilbereiche.
Und je kleiner der Chip, desto günstiger zu fertigen.
richtig hatte ich oben ja auch so geschrieben.

Dai6oro schrieb:
Entschuldige Hoschi aber deine Spekulationen sind auch nur reine Mutmaßungen und zwar ohne jegliche Belege oder Hinweise die du liefern kannst. Ich kann auch nur spekulieren aber tue dies aufgrund von dem was vermutlich bereits bekannt ist:

OC R920 und R9290x

http://images.gamestar.de/images/idgwpgsgp/bdb/2426390/944x531.jpg

Ob das nun stimmt vermag ich nicht beurteilen, aber es widerspricht schon mal deiner Vermutung dass es sich bei Hawaii um ein Karte handelt die man kaum OCen kann. In diesem Fall kommt eine R290 OC an ne Titan OC ran. Ich jedenfalls denke dass sich Hawaii nicht schlechter OCen lassen wird als Tahiti. Du behauptest das Gegenteil und nun? Mir isses eigentlich echt egal was du darüber denkst.

Derzeit deutet jedenfalls nichts auf eine schlechte Performance von Hawaii hin. Inwieweit Full hd überhaupt von Belang ist sei dahingestellt:

http://www.3dcenter.org/news/dritte...nce-pendelt-sich-knapp-ueberhalb-der-geforce-

Ich kann nur das ganze Miesmachen im Vorfeld nicht verstehen. Kauft euch halt eure Titan/GTX780 oder sonstwas und werdet glücklich. Langsam nervt dieser Kindergarten hier.

naja belegen könnte man es aber NDA :p

und das es kein großer wurf ist ist bekannt offenes geheimniss.
ich hoffe nur das sie dann mit der nächsten architektur ein brecher haben sonst ist eben ab 2014 intel nvidia der einzige anbieter für high end pc teile.

dann werden wir 5% mehrleistng jedes jahr für 1000 euro bekommen.

also meine meinung ist leistung wäre ok wen da 5% effizient bei rum kommen wen sie am verbrauch geschraubt hätten.
aber so wie es jetzt ausschaut haben sie absolut nichts gemacht ausser aufbohren.

dazu braucht man dann aber keine 2 jahre länger als die 7970 in der entwicklung gebraucht hat.
man darf ja nicht vergessen das so ein chip nicht in den 2 jahren von 7970 releas bis r9 290x releas entwickelt wird sonder paralel an 2-3 chips gearbeitet wird.

so nach dem moto abteilung a macht design abteilung b prototyp und abteilung drei feinschliff mit test für releas.

ps: wegen deinem sccreen
hast dir ma angeschaut wie wenig vorsprung das ist für 1,5 jahre unterschied? und wie der verbrauch ist?
da musst du selbst erlich zugeben kein meister werk.
und die krone haben sie sich zwar mit gewahlt geholt aber nvidia kann binen 3 monaten kontern wen sie es wollen.

vollausbau und ende.
 
Zuletzt bearbeitet:
Genau das meint ich damit. Wenn du das mit einbeziehst musst halt ne Geforce kaufen so einfach ist das.

Ich habe ja erstmal nur über die Performance gesprochen. Über Temperatur oder Lautsärke zu diskutieren ist müsig hängt dies doch im Wesentlichen vom verbauten Kühler ab. Ich werde mir jedenfalls keine Referenz zulegen. Dass die Boardpartner in der Lage sind leise Kühllösungen zu verbauen die eine gute Temperatur garantieren sehe ich an meiner bereits verkauften VaporX.

Und zwecks den Leaks beim Stromverbrauch habe ich lediglich kritisiert dass Furmark hergenommen wurde. Dieser ist so was von realitätsfremd der taugt zu nix. Und ja mir ist es wesentlich wichtiger, dass die Karte im idle sparsam ist. Unter Last interssiert mich das ehrlich gesagt nicht wirklich.

Es muss ja jeder selbst entscheiden auf was er Wert legt.

Bei mir ist es die Performance + Anschaffungspreis + gemäßigter Verbrauch im idle. Leise und gute Temps findet sich bei den Boardpartner. Wer was anderes möchte soll sich halt was anderes nehmen.
 
naja aber sei ma erlich wen die im idle 8 watt braucht und die titan 11w

deine aber unter last 60-100 watt mehr frisst
kannst mir nicht erzählen das du das raus sparst mit popeligen 3 watt :)

du mir ist die titan auch zu teuer.
ich häng mich auch wegen 10-20 watt nicht auf.

nur gehe ich nach amds weg frisst die graka 60 watt mehr die cpu 50 watt mehr der ram 2 watt das board 5 watt
der bildschirm 20 watt jede festplatte und ssd 2 watt mehr

sry aber wo komm ich dann raus?

bei nem 6 kern cpu mit 2 grakas 30 zoll bei nem 1000 netzteil?
du verstehst was ich damit meine?

du darfst halt nur nocht vergessen das ca 600 euro der releas preis ist
also sagen wir 550 straßen preis am anfang.

eine 780 jetstream ist da bilieger und sparsamer.
also weißt ja wo amd mit dem preis hin muss :p
die dinger werden schneller bei 450 euro sein als amd schwarze zahlen schreibt.
weil nvidia mit 500 euro bei der 780 eher gekauft wird als die 290x mit 500

ja wobei amd ihren partnern das kühlen echt absichtlich schwer macht.
also 3 große lüfter im triple designe muss schon sein um eine 290x unter 1100 taktung dann so zu kühlen das es leise und kühl ist.

ich bin ja temperatur freak und wen ne graka 75-80 grad erreicht zück ich den feuerlöscher.
daher erwate ich 60-70 grad bei leichtem oc unhörbar hab ich mit den beiden 580 sogar hinbekommen :p
 
LundM schrieb:
geb dir recht bis auf das 512 bit interface.

dann müsste die 7970 ja sparsam sein da 384 bit wie titan.
so viel macht das dann nicht aus.

So einfach ist das auch nicht! Es geht immer noch Chipgröße x Interface - eigentlich ist komplizierter, denn die Taktraten spielen auch eine Rolle. Bei der HD7970 war der Chip kleiner, also die maximale Leistung theoretisch niedriger. AMD hat dafür dann die Taktraten hochgezüchtet und die Spannung etwas angehoben. Nach Meinung einer zu viel, denn da war Spiel zum undervolten.

Die R9-290X geht aber anscheinend hin und ...
-erhöht das Speicherinterface auf 512-Bit um die Chipgröße zu Titan auszugleichen
-Chip wird zudem größer gemacht um mehr Transistoren draufzuklatschen
-Taktraten werden jedoch gesenkt, sonst brennt die Karte ab

--> Das ist eigentlich grotesker Wahnsinn! Das würde ich von Nvidia erwarten, aber doch nicht von AMD! Wie verzweifelt müssen die Jungs sein?


LundM schrieb:
die haben einfach 2 jahre den finger im po gedreht und gedacht nvidia wird es schon verbocken und fermi 2.0 bringen.

Anders kann ich mir es momentan nicht vorstellen. Die ganze R9-Generation ist bisher nicht so wirklich der Bringer. Die 290er werden aufgrund des für Gamer relativ hohen Preisen von 400-700€ nicht durchschlagen. Möglicherweise will AMD nur Zeit gewinnen bis die 20nm-Fertigung bei TSMC endlich startklar ist.

Mit der ersten R9-Generation sollen dann vorläufig nochmals die Angst-Aufrüster abgezockt werden.


LundM schrieb:
naja belegen könnte man es aber NDA :p

und das es kein großer wurf ist ist bekannt offenes geheimniss.
ich hoffe nur das sie dann mit der nächsten architektur ein brecher haben sonst ist eben ab 2014 intel nvidia der einzige anbieter für high end pc teile.

dann werden wir 5% mehrleistng jedes jahr für 1000 euro bekommen.

-Noch nicht einmal das!

Sowohl Intel, Nvidia als auch AMD sollen endlich mit diesen sinnlosen Refreshs aufhören! Unter 30-50%+ lohnt sich das aufrüsten ja nicht. Man muss hier bedenken, dass AMD für diese Steigerung fast zwei Jahre gebraucht hat. Das macht mir so langsam Angst! Genau so hat es bei 3dfx auch angefangen! Gott bewahre uns vor demselben Ende!


LundM schrieb:
ps: wegen deinem sccreen
hast dir ma angeschaut wie wenig vorsprung das ist für 1,5 jahre unterschied? und wie der verbrauch ist?
da musst du selbst erlich zugeben kein meister werk.
und die krone haben sie sich zwar mit gewahlt geholt aber nvidia kann binen 3 monaten kontern wen sie es wollen.

vollausbau und ende.


AMD war im Stromverbrauch schon bei der 7000er-Serie weit zurück. In diesem Punkt bringt sie es nicht wirklich. Vor ein paar Jahren noch wurde Nvidia für ähnliches Vorgehen in Grund und Boden geflamt. Seltsamerweise sind genau diese Kandidaten, denen das auf einmal egal ist. Die Argumente haben sich in beiden Lagern einfach um 180° gedreht. :freak:


Dai6oro schrieb:
Genau das meint ich damit. Wenn du das mit einbeziehst musst halt ne Geforce kaufen so einfach ist das.

Niemand soll irgendwas kaufen! Boykotiert endlich diese Mini-Updates. Ich bekomme jedesmal den Rappel wenn sich die Leute einfach alles gefallen lassen und dabei noch Unmengen an Kohle ausgeben. Außer mit extremen Einstellungen braucht man doch keine neue Karte!


Dai6oro schrieb:
Ich habe ja erstmal nur über die Performance gesprochen. Über Temperatur oder Lautsärke zu diskutieren ist müsig hängt dies doch im Wesentlichen vom verbauten Kühler ab. Ich werde mir jedenfalls keine Referenz zulegen. Dass die Boardpartner in der Lage sind leise Kühllösungen zu verbauen die eine gute Temperatur garantieren sehe ich an meiner bereits verkauften VaporX.

Ein Kühler alleine kann die Situation auch nicht retten, wenn die zu kühlende Grafikkarte ein Hitzkopf sein sollte. Das hat man bei Fermi ja gesehen! Ohne eine Wasserkühlung war das ein Monster. Bei dem Aufpreis lohnt sich eine entsprechende Karte dann doch nicht!


Dai6oro schrieb:
Und zwecks den Leaks beim Stromverbrauch habe ich lediglich kritisiert dass Furmark hergenommen wurde. Dieser ist so was von realitätsfremd der taugt zu nix. Und ja mir ist es wesentlich wichtiger, dass die Karte im idle sparsam ist. Unter Last interssiert mich das ehrlich gesagt nicht wirklich.

Furmark ist nicht perfekt, gibt jedoch wichtige Anhaltspunkte über das Verhalten der Karten. Eine neue Grafikkarte sollte sowohl im Idle als auch unter Last moderat sein. Bei einem so hohen Preis ist es idiotisch Kompromisse einzugehen. Das können die Hersteller von mir aus bei den Einsteigerkarten machen.


Dai6oro schrieb:
Bei mir ist es die Performance + Anschaffungspreis + gemäßigter Verbrauch im idle. Leise und gute Temps findet sich bei den Boardpartner. Wer was anderes möchte soll sich halt was anderes nehmen.

Problem ist nur, dass die Partner gerne noch eine OC-Version rausprügeln. Dann hast du keines deiner Kriterien außer vielleicht der Performance erfüllt. Mir hat ein Händler gesagt die verschiedenen Hersteller wäre zurzeit wegen irgendetwas sehr nervös. Details wollte man mir aber nicht sagen.

Ich habe keinen Schimmer was da abgeht. Klar ist mir nur, dass das nicht normal ist! Dasselbe Gefühl hatte ich damals auch schon vor Nvidia Fermi. Danach folge eine schlimme Zeit, weil nichts ging und die Hardware-Seiten auch noch Öl ins Feuer gossen. Ähnliches wünsche ich AMD nicht, aber dafür müssen sie erst einmal etwas brauchbares abliefern!
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Sowohl Intel, Nvidia als auch AMD sollen endlich mit diesen sinnlosen Refreshs aufhören! Unter 30-50%+ lohnt sich das aufrüsten ja nicht.

Der beste Satz. Danke!
Exakt deshalb sitz ich bei der CPU noch bei Lynnfield, Graka musste Anfang 2012 nach 3 Jahren erneuert werden und wurde 7970 OC. Als nächstes ist wieder CPU dran .. aber aktuell ist das doch auch Crap. Bei Grakas tut sich ja erstmal nix, was den Umstieg auch nur ansatzweise rechtfertigt. 8-Kerner next year maybe, aber von acht Threads jetzt wegen 25% mehr CPU-Leistung wieder nur auf nen 4C/8T wechseln? Never! Achja, zut Not geht ja noch OC per BCLK-Erhöhung .. die guten alten Zeiten ;)
 
Zuletzt bearbeitet:
Ihr wisst alle, besonders aber Volker, dass die Zeit der großen Sprünge vorbei ist. (wenn es die jemals gab ^^)
Wir nähern uns ganz schnell den physikalischen und wirtschaftlichen Grenzen.
Was erwartet Ihr, Zauberei?

Kann man sich einfach nicht einmal darüber freuen, dass AMD trotz 28nm einen sehr gut optimierten Chip gemacht hat. Der ist deutlich kleiner als der GK 110, und trotzdem leicht schneller.
Dazu kommt das es eigentlich ein Compute Chip ist. Den Teslas zeigt Hawaii bestimmt bald die Rücklichter....
 
Zuletzt bearbeitet von einem Moderator:
Diese Aussagen gab es aber auch vor x Jahren schon einmal. Und davor auch. Und plötzlich gab es trotzdem immer wieder einen Sprung. Der ist eben unvorhersehbar, weil irgendwer mal etwas mutiges probiert. AMD hat es mit dem Moduldesign bei CPUs und jeder dachte das wird es. Es kann aber eben auch mal in die Hose gehen.
 
Und das trifft auf die r9 290x zu? Ich finde die Sprünge gering... Es wird nur noch in Massenproduziert und mit Gewaltentwickelt und nicht mehr mit dem Verstand. " hat den längsten.." ;/
 
Zuletzt bearbeitet:
Volker schrieb:
Und plötzlich gab es trotzdem immer wieder einen Sprung. Der ist eben unvorhersehbar, weil irgendwer mal etwas mutiges probiert.

Das wär mal eine schöne Idee für einen Übersichtsartikel: Ein kleiner geschichtlicher Rückblick wann und wie solche Sprünge aufgetaucht sind.

Momentan ist es ja bei GPUs nicht wirklich spannend. Das meiste Leistungsplus kommt einfach mit einem neuen Fertigungs-Node, da man einfach grob die Packungsdichte verdoppeln kann und man somit automatisch mehr Leistung aus der gleichen Fläche rausbekommt. Innerhalb eines Fertiguns-Nodes erhöht man einfach die Fläche und erhält so einfach mehr Leistung durch gestiegene Transistorenzahl. Langweilig^10.

Die Frage ist ob man wirklich was total neues Innovatives bringen kann, schließlich wird ja immer eine gewisse Kompatibilität zu alten Sachen verlangt/erwartet.
 
Sowohl Intel, Nvidia als auch AMD sollen endlich mit diesen sinnlosen Refreshs aufhören! Unter 30-50%+ lohnt sich das aufrüsten ja nicht.

Unter 150-200% lohnt es sich in meinen Augen nicht nicht (dein Beispiel: Spiel läuft nicht: 15fps +30%: 19,5fps...).
Jedem wie er meint. Die einen sehen den Unterschied zwischen 55 und 56fps, den anderen reichen 30fps.
Klar kannst du dich aufregen, aber diese Hersteller sind nicht verpflichtet (rechtlich!) uns Konsumgüter herzustellen bzw. XX % Mehrleistung jedes Jahr zu bieten ;)
Schön wäre es, aber ist nunmal nicht so.

Die 290X wird das machen was man erwartet (hier und da ein paar (messtechnisch quasi irrelevante) %punkte mehr und weniger).
Sie wird in etwa mit der Titen konkurieren und dabei billiger sein -> alles gut.

(ABER 780 OC ist genauso schnell, aber 770/680 OC/7970 OC ist genausoschnell wie 780, aber 7950 OC ist genausoschnell wie 770...etc.pp... das ist auch nur bedingt ein Argument, da man es beliebig fortführen kann)
 
Zurück
Oben