News Startet die AMD Radeon HD 7900 am 9. Januar 2012?

Solang es sich nicht nur um einen shrink mit verbesserten speicherinterface handelt, ja.
 
Freue mich schon auf den CB Test :D
 
Kommt drauf an, wieviele New in Form von:

Gerüchte besagen, 7xxx kommt bald blablabla...
Die 7xxx ist bald da blablabla....
die 7xxx ist angekündigt am blablabl...
die Händler xyz hat die 7xxx für den xx gelistet blablabla

Kann es langsam nicht mehr höhren. Wen es zumindest mal echte Neuigkeiten wären. Ob die Karte jetzt zwei 6Pol stecker nutzer oder einen 6er und einen 8er... diese Schnitzeljagt ist eher extrem ermüdent, wen die eigentlichen "NEWS" nur aus maximal zwei Zeilen bestehen und der rest drum herummit dem Gerücht des Erscheinungsternub jünstlich aufgebläht wird.

Lieber wäre mir Klasse statt Masse. Daher lieber ein paar News etwas ausführlicher und dafür weniger. Dazu meinet wegen nen Liveticker wo man die zweizeiler reinsetzt.

sry meine Meinung
 
Zuletzt bearbeitet:
Hallo @ all,

ich höre nur Leistung, Leistung, Leistung. Dabei sind für 95% der Anwender und Spiele mehr als schnell genug. Wie auch nicht, wenn 95% der PC-Spiele nur noch miese Konsolenports ist.

Leider ist es utopisch zu hoffen, daß Spielkonsolen gesetzlich verboten werden, :D daher kann man nur hoffen, daß Next-Gen-Geräte baldmöglichst erscheinen.

In der Zwischenzeit aber hätten NVidia und AMD Gelegenheit die kapitale Fehlentwicklung der letzten Jahre etwas zu korrigieren. Denn selbst im Winter möchte ich lieber auf eine Elektroheizung in Form einer GraKa verzichten. Was ich mir erhoffen würde, wäre endlich ein Gentlemans Agreement zwischen den beiden damit sie sich an einem Feld bekriegen das auch Sinn macht. Nicht ständig bloß Leistung steigern, sondern endlich einmal TDP senken.

Single-Slot-GraKas, mit denen man jedes Spiel auf max flüssig in HD zocken kann sollte der Fokus sein. Aber scheinbar passen sich da beide Hersteller da lieber den pubertären Wünschen ihrer oft minderjährigen Klientel an. Was solls wir zocken halt mit SLI und Crossfire, die Stromrechnung zahlt eh der Papa.

Ich träume noch von meiner legendären Matrox Millenium 4MB (486-/Pentium I - Zeiten). War zwar ein verflucht teueres Teil (vergleichbar mit einer GTX 580 3GB heutzutage) aber auch verdammt geil. Und das Geld hat man nicht für die damaligen rein DOS-basierten Spiele ausgegeben, nein nur um höhere Auflösungen unter Win 3.11 fahren zu können. Kritiker haben damals schon die ersten aufkommenden Passivkühler bemängelt. Manch ein RAM-Kühlkörper ist heute größer.

Wie geil wäre Triple-SLI wenn jede GraKa nicht mehr als 20W verbrauchen würde? Das wäre mal ein vernünftiger Traum. Und ein leiser dazu.
 
Dann kauf dir doch Llano und zock damit, niemand zwingt dich grakas mit mehr leistung zu kaufen. SLI mit Grakas mit 20W wäre nicht ein traum, sondern totaler blödsinn der überhaupt keinen Sinn macht. Jeder kann seine TDP Klasse wählen die er haben will. Da wird die Leistung auch die ganze Zeit gesteigert und auch wenn die Hersteller nur Grafikkarten mit kleinerer TDP entwickeln würden, würde das die Entwicklung nicht verändern.
 
Zuletzt bearbeitet:
BlackWidowmaker schrieb:
ich höre nur Leistung, Leistung, Leistung. Dabei sind für 95% der Anwender und Spiele mehr als schnell genug. Wie auch nicht, wenn 95% der PC-Spiele nur noch miese Konsolenports ist.

Es gibt noch genügend ältere Spiele, die selbst mit einer GTX580 nicht optimal flüssig laufen.
Crysis ist und bleibt einzigartig in der Welt.
Selbst nach 6 Jahren sorgt dieses Spiel für massig Hardwareverkäufe. :cool_alt:
Auch "The Witcher 2" und "StarCraft 2" schlucken Hardwarepower ohne Aufstoßen zu müssen. Ebenfalls Metro2033 usw.
Wer denkt, das der Grafikkartenmarkt viel zu oversize sei, der irrt sich gewaltig !

Leider ist es utopisch zu hoffen, daß Spielkonsolen gesetzlich verboten werden, :D daher kann man nur hoffen, daß Next-Gen-Geräte baldmöglichst erscheinen.

Bis diese Spielkonsolen und die dazugehörige Softwareentwicklung den Gamermarkt erreicht hat, sind die Grakkas schon bei 14nm Fertigungsgröße angelangt.
Klar gibt es dann mehr Hersteller, die eben mehr von ihren Produkten abverlangen, als es jetzt von Nöten ist. Aber schlussendlich sind sie immer veraltet.
Ich sehe es eher als zusätzlichen Schub, wenn jetzt die Next-Generation an Grakkas, wirklich soviel mehr an Leistung bietet. Da kommen so manche Softwareentwickler eher in Versuchung auch mal die Machbarkeitsstudie zu betreiben. :D

In der Zwischenzeit aber hätten NVidia und AMD Gelegenheit die kapitale Fehlentwicklung der letzten Jahre etwas zu korrigieren. Denn selbst im Winter möchte ich lieber auf eine Elektroheizung in Form einer GraKa verzichten. Was ich mir erhoffen würde, wäre endlich ein Gentlemans Agreement zwischen den beiden damit sie sich an einem Feld bekriegen das auch Sinn macht. Nicht ständig bloß Leistung steigern, sondern endlich einmal TDP senken.

Single-Slot-GraKas, mit denen man jedes Spiel auf max flüssig in HD zocken kann sollte der Fokus sein. Aber scheinbar passen sich da beide Hersteller da lieber den pubertären Wünschen ihrer oft minderjährigen Klientel an. Was solls wir zocken halt mit SLI und Crossfire, die Stromrechnung zahlt eh der Papa.

Leistung ohne Verbrauch wird es wohl nie geben.
Zudem verstehe ich deine Argumentation nicht ganz.
Für den sparsameren User gibt es eine sehr große Auswahl an Grafikkarten in allen nur erdenklichen Situationen vom Low- über Mainstream bis Performance-Segment.
Wer sparen will und weniger Verbrauch und Hitze haben möchte, der kauft sich eben kein High-End.
 
kaka11 schrieb:
Und du weisst ja zum Glück schon dass die GTX680 mindestens 30% schneller wird...

Fakt ist: Man weisst nicht wie schnell die AMD-Karten sein werden, man weisst nicht wann Nvidia ihre Serie gebacken kriegt und man weisst erst recht nicht wie schnell die sein wird!

Und auf Nvidia warten würde ich sowieso nicht, denn wenns so wird wie letztes mal wird, sprich 6 Monate später gleiche Leistung und viel höherer Verbrauch, na dann... :freak:

Karten mit dem GK100 werden wohl im Q2 2012 erscheinen, vielleicht auch früher. Ich gehe aber davon aus, dass nVidia wieder 10 bis 20% vor AMD liegen wird, was die Performance angeht. Ich werde jeden Falls abwarten und beide GPUs vergleichen und mich dann entscheiden. Wer die Geduld dafür nicht hat, wird eben das Risiko eingehen die schlechtere Wahl zu treffen.
 
210W klingen mal nicht schlecht für das Flaggschiff, da gab es ja Bedenken wegen GCN...
Da kann man Notfalls noch was raus holen... interessant die 3GB sind in den 210W ja auch noch drin.

Jope beruhigend zu hören...

EDIT: JA, sehe eigentlich auch keinen Bedarf an noch schnelleren Karten.
Solang wir noch bei der PS3/360 hängen. Wenn Spiele mehr Leistung brauchen liegt es an mieser Portierung
...(sag ich jetzt mal. KEINE Ahnung xD )
. Die PCler freuen sich teils sogar, wenn es schlecht läuft.
JAA! Oft gehört: 'BOA des braucht Leistung', 'frisst Ressourcen'. Dabei ist es nur CoD.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Wer sparen will und weniger Verbrauch und Hitze haben möchte, der kauft sich eben kein High-End.

Es geht nichs ums sparen. Es geht auch um die Größe aber vorallem um Lautstärke. Aber ich sehe schon, wenn man mit markanten Marketingsprüchen groß geworden ist, glaubt man an diesen wie an der Bibel.

Der großteil von potentieller Leistung, hardware sowie softwareseitig, wird heute an mangelnder Optimierung verschwendet. Mit 20W TDP die absolut effizientoptimiert /auch softwareseitig) eingesetzt würden, könnte man mit vorhandenen technischen Mitteln die GraKa-Leistung einer GTX580 durchaus erreichen. Doch nicht mit einjährigen sondern mit 5-10jährigen Entwicklungszyklen. Das gleiche gilt für Software.

Wenn man das was heute als Fertigprodukt auf den Markt schmeisst vor 30 Jahren verkauft hätte, dann wäre man mit an Sicherheit grenzender Warscheinlichkeit wegen organisiertem Betrug zu langjährigen Gefägnisstrafen verurteilt worden. Doch die Industrie, allen voran MS, hat es über Jahrzehnte lang geschafft dem Verbraucher einzureden, daß er kein Anrecht auf ein fehlerloses Produkt hat. Bei MS ging man als erster so weit zu erklären, daß man überhaupt keine Eignung zu einem bestimmten Zweck erwarten darf.

Hardware-Optimierung? Mein Gott, das ist doch beinahe Gotteslästerung. Wenn man keine Fehler, keine Probleme oder Bugs hätte, dann bräuchte man doch keine Foren mehr, um Hilfe und Unterstützung suchen zu können. Dann bliebe ja das ganze Zwischenmenschliche auf der Strecke. Was sich diese Hardware-Opas bloß dabei denken? :evillol:
 
Haja, Warum werden eigentlich Ferraris gebaut wenn man innerorts eh nur 50 fahren darf?

Mist... jetzt bin ich sogar schon selbst in einen Autovergleich abgedriftet. Darf doch nicht wahr sein...

Grafikkarten müssen immer viel schneller werden! Einzig der verbrauch muss auf einem ordentlichen Niveau gehalten werden. bei 375Watt ist dann so langsam schluss... Ich würde es begrüssen wenn die Grakas sich so um die 200-250Watt einpendeln. Schliesslich gibts ja Crossfire/SLI für Leute die die Performance brauchen.

Ach un aprobo Konsolen Ports... Ich krieg in Skyrim an die 35-45 FPS unter Hohen einstellungen. 5760x1080 Pixel bei einer HD6970.
Nun stellt euch erst mal vor die das aussehen wird wenn da Ultra High texturen kommen (die werden kommen! Und sind auch zwingend nötig!) Ich kann es kaum erwarten ein 7970 Tri fire zutesten!
 
Haldi schrieb:
Ich würde es begrüssen wenn die Grakas sich so um die 200-250Watt einpendeln. Schliesslich gibts ja Crossfire/SLI für Leute die die Performance brauchen.

Ich brauche keine 250W TDP. Mein erster Lötkolben hatte 25W, meine Weller Lötstation die ich seit 20 Jahren nutze ganze 50W. Ein großer Lötkolben mit den man ganze Bleche verlöten kann kommt mit 125W aus.


Das es auch anders geht zeigt der weltgrößte GPU-Hersteller mit seinen CPUs. OK, ohne Konkurrenz ist es auch leichter sich an die Vernunft zu halten.

Aber diese Denke, daß man für hohe Leistung zwangsweise mehr Leitung verbraten muß kapiere ich nicht. Vielleicht sehe ich das zu eng aus der Sicht des Elektronikers, wer weiß.

Ich sagte auch mit keinem Ton, daß ich mit weniger GraKa-Leistung zufrieden wäre, gewiß nicht. Habe meine GTX560ti 2GB auch nicht um anzugeben sondern weil ich ihre Leistung brauche. Was ich jedoch nicht brauche ist ein Heizkraftwerk.

Das dies nicht anderes geht, ist eine Markting-Lüge die durch ständiges Wiederholen auch nicht wahrer wird.
 
Startlöcher ist wohl sehr übertrieben. Wenn man danach geht steht immer was in den Startlöchern, auch der Nachfolger für die HD 7970. Für die Nvidia-Lösungen gibt es noch nicht einen brauchbaren Fakt oder glaubwürdiges Gerücht, kein Termin und gar nix. Das meiste fußt auf selbstgemalten japanischen Roadmaps und Vermutungen anhand der Vorgänger. Und da kann man wie mit dem Thema XDR2 bei der HD 7900 ja mal richtig schön ins Kraut schießen. Denn das war auch mal ein einzige Spekulation aus Übersee, wurde dann nur so oft heruntergebetet, dass es jetzt plötzlich heißt, warum kommt es denn nicht, war doch angekündigt. Falsches oft wiederholen macht es nicht richtiger, auch wenn das im Internet gern so gesehen wird.

Nvidias Zeug wird sicher noch Monate dauern, vor Q2 passiert da nix. Vorher dürfte deshalb bei AMD wohl fast alles an Neuerscheinungen durch sein, mit Ausnahme da unten im Segment, wo sie eh die Hälfte nur neu benennen. Und das dürfte die Wahrheit sein .. äh halt warte .. auch ein Gerücht ;)
 
Nvidias Zeug wird sicher noch Monate dauern, vor Q2 passiert da nix.
Seh ich auch so, vom Kepler gibts momentan echt noch garnichts. Dürfte AMD aber auch relativ gut tun wenn sich das gleiche wie mit der 5800er Serie wiederholt, sprich man Monatelang alleine auf dem Feld steht.

Bin aber mal echt gespannt auf GCN und angeblicher 210 Watt TDP im High End. Könnte sein das ich mir seit gefühlten 10 Jahren überhaupt mal wieder ne Graka zuleg :evillol:

BTW:Gerade bei S|A gesehen:
http://semiaccurate.com/2011/12/13/amd-unchains-tahiti-pro-cards-from-day-one/
Yes, we are hearing from multiple sources that the junior card of the two will be able to use non-reference designs from day one.
Gemeint ist damit Tahiti Pro.
 
Zuletzt bearbeitet:
ich warte nur noch auf Mid-Range Karten mit max. 75Watt TDP und 28nm ohne 6.pin Anschluß (fürs ANNO 2070 Game :) ). Bei den Riesen High End 79xx ist 210Watt TDP Standard geworden? AMD könnte von Intel in Sache "stromsparende" Grafikkarten etwas lernen, denn jetzt ist "ECO" Zeit angesagt!
 
@aklaa
Der war gut. Wie soll das gehen spitzenleistung ohne verbrauch kannst vergessen. Sowas geht net da kommt immer nur ein kompromiss raus und du musst abstriche machen. Wenn du den Verbracuh senkst wird auch auch die Leistung sinken. Die beiden faktoren werden sich immer beeinflussen. Man kann zwar das ganze effizienter machen aber komplett drum rumkommen wird man nie.
Und intel sparsame Grafik. Ja für Windows ok aber wer nimmt ne GTX 570/580 oder eine HD 6970 für die Windows Oberfläche her ?
Intel soll erstmal eine solch Leistungsfähige Graka bringen und dann wird sich zeigen die kochen auch nur mit Wasser.

MfG
 
BlackWidowmaker schrieb:
Es geht nichs ums sparen. Es geht auch um die Größe aber vorallem um Lautstärke. Aber ich sehe schon, wenn man mit markanten Marketingsprüchen groß geworden ist, glaubt man an diesen wie an der Bibel.

Was hat das bitte mit Marketingsprüchen zu tun ?
Wenn einem die 200 Watt TDP zu viel sind, dann kann man sich doch locker auch eine etwas sparsamere Karte aussuchen.
Niemand zwingt dich die teuerste und schnellste sowie lauteste Karte zu kaufen ! :rolleyes:

Denn auch die Low-Power Karten alla HD6450 ect. sind leistungsfähiger als eine HD5450 und durch ihren geringen Strombedarf sogar passiv zu kühlen mit null Emissionen. ;)

Der großteil von potentieller Leistung, hardware sowie softwareseitig, wird heute an mangelnder Optimierung verschwendet. Mit 20W TDP die absolut effizientoptimiert /auch softwareseitig) eingesetzt würden, könnte man mit vorhandenen technischen Mitteln die GraKa-Leistung einer GTX580 durchaus erreichen. Doch nicht mit einjährigen sondern mit 5-10jährigen Entwicklungszyklen. Das gleiche gilt für Software.

Ahmen...
Spricht da etwas der große Grafikkartenhersteller oder entspringt diese Vorstellung eher einem Wunschdenken ?

1. Niemand kann eine Grafikkarte mit 4 TFlops Rechenleistung auf 20 Watt TDP schrumpfen lassen. Das wäre so, als ob du einen LKW mit 40 Tonnen Zuladung mit lockeren 3 Liter Diesel auf 100 KM bewegen könntest.
So etwas ist technisch unmöglich, egal wie lange man Forscht oder Entwickelt. Ebenso wenig kann ein Mensch die Hundert Meter in 5 Sekunden rennen egal wie willig der Verstand auch ist, es ist physikalisch absolut unmöglich. Und genauso ist es nicht möglich eine Hochleistungsrechenkarte mit so gut wie keinen Stromverbrauch zu konstruieren.

2. Schaut man sich die Grafikkarten in ihrer Entwicklung an, so fällt einem schnell auf, das sie immer schneller werden, sprich leistungsfähiger. Dies erreicht man, indem man ihre Rechenleistung signifikant erhöht. Durchgesetzt wird das mit:

a) Mehr Taktfrequenz. Denn je schneller eine Karte taktet, desto schneller kann sie Berechnungen pro Zeiteinheit ausführen. Daher steigern die Grafikkartenhersteller immer weiter die Taktfrequenzen. Während Früher die Karten mit 100 MHz liefen, so laufen sie Heute schon mit annähernd 1000 MHz.
Theoretisch könnte man natürlich auch Karten entwickeln, die mit 1 Terraherz laufen würden und somit auf einen Schlag 1000 mal so schnell arbeiten. Aber leider ist so etwas einfach nicht möglich, da die jetzige Halbleitertechnik viel zu träge ist um so schnelle Zustandsänderungen verarbeiten zu können. Deshalb ist eine Karte nicht unendlich übertaktungsfähig und die Hersteller gehen schon recht nahe an den maximalen möglichen Takt. Desweiteren steigt auch die Leistungsaufnahme (Watt) je schneller eine Karte taktet.

b) Die Rechenleistung wird durch mehr Transistoren erreicht, sprich mehr Shader erzeugen eine schneller Abarbeitung der Aufgaben.
Aber wieder steigt durch mehr Transistoren der benötigte Strombedarf an. Mehr Mäuler wollen schließlich auch gefüttert werden. :cool_alt:

Es gibt nur ein Möglichkeit den Energiehunger zu bändigen.
Die Verkleinerung der Strukturgröße. Kleinere Transistoren benötigen weniger Strom um zu funktionieren. Daher benötigen die modernen Grafikkarten weniger Spannung und können daher deutlich effizienter arbeiten.
Aber dies hat wiederum Grenzen, die irgendwann erreicht werden, spätestens dann, wenn Atome viel zu groß werden. :p

Ergo:
Mehr Rechenleistung bedeutet mehr Energiebedarf zur Ausführung.
Daher ist es utopisch zu meinen, das man nur mit dem Wollen am Nichtglauben von Marketinggebashe, wahre Wunder vollbringen könnte. :D

Wenn man das was heute als Fertigprodukt auf den Markt schmeisst vor 30 Jahren verkauft hätte, dann wäre man mit an Sicherheit grenzender Warscheinlichkeit wegen organisiertem Betrug zu langjährigen Gefägnisstrafen verurteilt worden. Doch die Industrie, allen voran MS, hat es über Jahrzehnte lang geschafft dem Verbraucher einzureden, daß er kein Anrecht auf ein fehlerloses Produkt hat. Bei MS ging man als erster so weit zu erklären, daß man überhaupt keine Eignung zu einem bestimmten Zweck erwarten darf.

Sorry, aber vor 30 Jahren hat man noch Wundermittel im Fernsehen an den Mann oder die Frau bringen wollen und keiner ist dafür ins Gefängnis gekommen !
Und vor 30 Jahren gab es noch den VC20 oder C64. Da hat ein einfaches Handy heute 1000 mal mehr Rechenleistung bei einem Verbrauch von 100 mal weniger.
Klar könnte man noch viel weiter sein. 1985 kam ein schöner Film in die Kinos "Back to the Future 2". Da hieß es auch, in 30 Jahren würden Autos durch die Luft fliegen können. Nun ist es schon fast 2015 und bis jetzt können sie es noch nicht. ;)
Was ich damit sagen will, ist das man einfach nicht zu viel erwarten darf. Die Entwicklung nimmt ihre eigenen Wege. Da lässt sich nichts herbeiwünschen.

BlackWidowmaker schrieb:
Ich brauche keine 250W TDP. Mein erster Lötkolben hatte 25W, meine Weller Lötstation die ich seit 20 Jahren nutze ganze 50W. Ein großer Lötkolben mit den man ganze Bleche verlöten kann kommt mit 125W aus.

Ja aber was hat ein Lötkolben mit einer GPU gemein ? :rolleyes:
Auch Heute noch benötigt man einen 100 Watt Kolben je nachdem was man löten will. Da hat sich bis Heute noch nichts geändert. Willst du deshalb die Lötkolbenhersteller verklagen oder ins Gefängnis sperren ? :D
Warum werden keine sparsameren Lötkolben entwickelt ? Schließlich sollte es doch Heute kein Problem darstellen mit der richtigen Software- und Hardwareanpassung solche Lötkolben auf den Markt zu werfen...

Das es auch anders geht zeigt der weltgrößte GPU-Hersteller mit seinen CPUs. OK, ohne Konkurrenz ist es auch leichter sich an die Vernunft zu halten.

Redest du über Intel oder wen sonnst ?
Intel ist auf CPUs spezialisiert. Die können es im GPU-Sektor weder mit AMD noch mit Nvidia aufnehmen ! Eine GPU zu konstruieren, die auch wirtschaftlich konkurrenzfähig ist, benötigt weit mehr als nur Geldmittel. Auch die Software, sprich Treiber sind ein Ergebnis aus jahrzehnten langen Entwicklungszyklen. So etwas ist weder mit Geld noch guten Worten einfach so zu bewerkstelligen. Das sind Erfahrungswerte, die Intel noch vor sich hat und die AMD und NVIDIA so marktdominierend machen.

Aber diese Denke, daß man für hohe Leistung zwangsweise mehr Leitung verbraten muß kapiere ich nicht. Vielleicht sehe ich das zu eng aus der Sicht des Elektronikers, wer weiß.

Einfache Frage: Wenn du mehr arbeitest, brauchst du dann weniger zu essen ?
Aber genau das machen die Ingenieure und Entwickler von Grafikkarten. Die nächste Generation wird weniger zu essen benötigen, aber mehr Rechenleistung bringen.
Das grenzt schon an ein kleines Wunder. ;)

Ich sagte auch mit keinem Ton, daß ich mit weniger GraKa-Leistung zufrieden wäre, gewiß nicht. Habe meine GTX560ti 2GB auch nicht um anzugeben sondern weil ich ihre Leistung brauche. Was ich jedoch nicht brauche ist ein Heizkraftwerk.

Dann verstehe ich deine ganze Aufregung hier absolut nicht. Du bist zufrieden mit deiner GTX560ti. Schön, andere sind mit ihrer passiv gekühlten HD5570 zufrieden.
Einige mögen es etwas schneller und kaufen sich die GTX570 oder HD6870. Wieder andere wollen die volle mögliche Leistung haben und gönnen sich die HD6970 oder eben die GTX580 3GB ect.
Das das Maximum an möglicher Rechenleistung natürlich auch den Energiehunger mit sich bringt ist eine einfach logisch Konsequenz.

Das dies nicht anderes geht, ist eine Markting-Lüge die durch ständiges Wiederholen auch nicht wahrer wird.

Niemand hindert dich daran deine eigene GPU zu entwickeln. Wenn du darin eine Marktlücke siehst, so lass deiner Kreativität einfach freien lauf und scheffle damit Milliarden an Gewinnen ein. ;)
Mich wundert auch, warum es überhaupt noch Autos gibt, die Benzin oder Diesel zum Fahren benötigen. Einfach die Marktlücke schließen und ein Perpetuum-Mobile entwickeln. Das ist doch nicht so schwer oder ? :p

aklaa schrieb:
ich warte nur noch auf Mid-Range Karten mit max. 75Watt TDP und 28nm ohne 6.pin Anschluß (fürs ANNO 2070 Game :) ). Bei den Riesen High End 79xx ist 210Watt TDP Standard geworden? AMD könnte von Intel in Sache "stromsparende" Grafikkarten etwas lernen, denn jetzt ist "ECO" Zeit angesagt!

210 Watt sind weniger als 250 Watt.
Zudem glaube ich kaum, das Intel in der Lage wäre eine GPU zu entwickeln, die weniger verbrauchen würde. Denn wie oft muss man es denn noch erwähnen, daß Intel keine leistungsfähigen GPUs produzieren kann ! Sie können nur gute CPUs entwickeln, sind aber im GPU Sektor ca. 10-15 Jahre hinterher. :rolleyes:

Opteron185 schrieb:
Intel soll erstmal eine solch Leistungsfähige Graka bringen und dann wird sich zeigen die kochen auch nur mit Wasser.

Meine Rede.
Soll Intel es doch selber mal versuchen. Larrabee sollte schon 2010 den Markt erreichen. Wurde aber nicht umgestezt warum wohl ?
http://de.wikipedia.org/wiki/Larrabee_(GPU)

Zitat:
Im Dezember 2009 verkündete Intel, dass zunächst keine Larrabee-Grafikkarten auf den Consumer-Markt gebracht werden.[1] Als Gründe gab Intel an, dass Larrabee die Erwartungen sowohl im Software-, als auch im Hardwarebereich nicht erfüllt habe. Gleichzeitig führte man aus, dass für konkurrenzfähige Larrabeeprodukte ein ausgereifter 32-nm-Fertigungsprozess notwendig sei, was darauf hindeutet, dass die Leistungsaufnahme zu hoch gewesen sein muss oder/und die Taktraten zu niedrig waren. Im November 2009 führte Intel auf der Supercomputing-Messe einen übertakteten Larrabee mit einer Leistung von über einem Tera-FLOP vor. Allerdings wurden diese Leistungsbereiche schon im Sommer 2008 von der Radeon HD 4870 oder Geforce GTX 280 erreicht. Intel bestätigte, dass Larrabee als reines Forschungsprojekt fortgeführt werde, um die Softwareentwicklung des „Larrabee 2“ zu unterstützen.

Kurz gesagt, sie können es nicht, denn sie haben kläglich versagt ! :p
 
Zuletzt bearbeitet:
Bin mal gespannt auf die tatsächlichen Verbrauchswerte. Für die meisten aktuellen games braucht es nicht mehr Leistung als eine GTX570/580, aber eine vergleichbare Karte mit weniger Leistungsaufnahme und damit leiser Kühlung ab Werk wäre mal was feines.
 
Ja, schon ;). Und Metro 2033@max. Da war ich mächtig enttäuscht, als ich mit meiner GTX590-Gurke eine Ruckelorgie erlebt habe (Stichwort VRAM).
Aber Crysis reizt mich nun außer als Grafikdemo gar nicht. Und dafür €450+ ausgeben? Ich weiss nicht.....
 
Zurück
Oben