News Bilder, Daten und Erscheinungstermin zur HD 5970?

Ist doch wie bei NV, die Dual GPU Karte heisst ja auch nicht GTX275GX2 obwohl die Chips verbaut sind.
 
Das namensschema ist schon richtig von AMD.Immerhin haben die X2 Karten diesmall weniger takt als die Single Karten.
 
Wenn mann von der 5970 rumspinnt, sollte man ja davon ausgehen, dass die 5850/5870 mittlerweile massenhaft verfügbar sind :evillol:
 
Cyman schrieb:
Oh man, ich sehe immer noch keine wirkliche Entwicklung im Grafikkarten-Sektor.
Es geht offenbar immer noch um höhere Leistung, egal zu welchem Preis und der ist ein immens hoher Leistungshunger!

Unfug.
Natürlich gibt es sie, die Entwicklung. Es gibt nicht nur High Performance und Enthusiast Karten wie die X2, welche aus den Chips und den Speicher mit maximalen Takt und Leistungsaufnahme die maximal mögliche Performance holen.

Im Midrange und Entry bereich findest du karten wie die 5750, die Leistung einer 8800GTX oder Ultra bietet, die alten Karten dafür aber bis zu 100 Watt und mehr an Leistung benötigen. Auch im Idle verbrauch liegen Welten.

Also bitte schau mal über den Tellerrand, und erweiter deinen Horizont.

Cyman schrieb:
Solange nicht Multi-Core GPUs rauskommen, welche abschaltbare Cores je nach Leistungsbedarf und einen 2D- sowie einen 3D-Betriebsmodus besitzen.
Die Apple MacBook Pros mit dem 9400M und 9600M-Chip haben ja zumindest im Ansatz etwas derartiges zu bieten. Auch wenn es nicht automatisch läuft und vom User entschieden wird und wenn nötig, lassen sich beide Chips dann zu einer Art Hybrid SLI zusammenschalten, soweit ich mich nicht irre.
Wenn ich die volle Leistung zum Spielen abrufen könnte und den Rest der Zeit mit dem allernötigsten für den Desktop-Betrieb arbeiten könnte, dann wär das in meinen Augen völlig ausreichend und sinnvoll.

Hybrid Power war nett gedacht, ist aber mittlerweile Obsolet, kein Wunder das Nvidia das auch nicht mehr nur noch begrenzt für OEM Hersteller zur Verfügung stellt.

Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
 
Natürlich gibt es sie, die Entwicklung. Es gibt nicht nur High Performance und Enthusiast Karten wie die X2, welche aus den Chips und den Speicher mit maximalen Takt und Leistungsaufnahme die maximal mögliche Performance holen.
Im kleinsmöglichen Packet also Platzbedarft, sollte man auch nicht unterschätzten, des weiteren sind sogar dual-GPU Karten zig mal effizienter als CPUs-> Cyman du bist ein Träumer...
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110

Hybrid Power war nett gedacht, ist aber mittlerweile Obsolet, kein Wunder das Nvidia das auch nicht mehr nur noch begrenzt für OEM Hersteller zur Verfügung stellt.
Du bist lustig, "begrenzt" Hybrid Power im Notebook ist eines der besten Features überhaupt von Apple und Alienware. Obsolet ist höchstens dein Beitrag...

Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
Im Notebook sind aber auch die 20Watt viel zu viel. Ansonsten hast du recht, eine extra onboard GPU würd die Karten nur teurer machen und die Leute meckern ja schon an den extrem günstigen Preisen der HD 5700 rum.
 
"fällt das nur mir auf, oder hats da irgendwas?? nur 21k punkte!? soviel hat man mit 2 260ern im SLI verbund und nem otto-quadcore @ 3.6 ghz..?? ist da der treiber noch so miserabel oder was ist da falsch?^^ wäre ja ne peinliche aktion, wenn die so schwach wäre.."




Lass mich raten: Du hast Physx im Treiber bei NVIDIA angelassen??? Schalt das mal ab dann siehst du was die echt an Punkten machen. So testen alle Seriösen Testseiten (auch Computerbase) um das Ergegnis nicht zu verfälschen...
 
Warum immer 2 Chips auf einem PCB verlöten, technisch sollte es doch machbar sein wie bei CPU's auf einem DIE 2 zu vereinen.

Das wäre Genial, und die Kommunikation untereinander sicherlich noch besser schneller, desweiteren könnte man die Karten etwas kleiner halten.
 
Wahnsinnig genial. Aber sag mal bitte wie du das kühlen willst?^^
 
Solange die µ-Ruckler bei Crossfire das SLI-Niveau nicht erreicht haben, ist eine X2 Karte obsolet für mich.
 
Wieso die Radeon 5850/5870 nochnicht massenhaft zur verfügung gestellt wird sollte hier jedem klar sein, AMD machts schlau sie Produzieren nicht zuviel um nicht aufeinmal,auf einem teil der karten sitzen zu bleiben falls die neue Nvidia serie unverhofft erscheint nvidia ,ein anderer Grund könnte natürlich auch sein das es im moment einfach nicht ausreichend herstellungskräfte gibt,oder halt mittel :XD

ka was AMD da macht ich hätte auch gern eine Radeon 5870 gekauft,wenn sie denn verfügbar wäre..........
 
@ Arbiter Elite

Die sollten erstmal den Verbrauch auf ein Niveau bringen was wenigstens halbwegs normal is.
 
Schade, dass Crossfire hier immer so verunglimpft wird im vergleich mit SLI.
Ich persönlich hab da noch nie nen Unterschied feststelen können und es gibt keinen funierten Test, der bescheinigt dass jedenfalls 2CF Karten weniger µruckler Prouzieren als 2Nvidiakarten.
Alles Subjektive Meinungen. Im letzten test sah man die Frametimes 2er HD5850 in Crysis... wunderbar.
Stalker Clear Sky dahingegend ist furchtbar, aber leide rgenauso furchtbar wie mit nem SLI System zu spielen.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Du bist lustig, "begrenzt" Hybrid Power im Notebook ist eines der besten Features überhaupt von Apple und Alienware. Obsolet ist höchstens dein Beitrag...

Wie geschrieben, ausser für "OEM Hersteller"; kein wunder das sowas bei ner GTX 280M oder 260M verbaut wird, und die 9600M verbraucht auch nicht sehr viel weniger im Idle, vielleicht sogar mehr.
Warum das aber aber für den Rest des Marktes von Nvidia gestrichen wurde hat schon seine Gründe, wie z.B. Treiberprobleme, Herstellerzwang und Co., auch wenn du wieder mit der ständig wiedergekauten Leier daher kommst, das die Leute ja blos nicht zu viel zahlen wollen. Das nervt.


Kasmopaya schrieb:
Im Notebook sind aber auch die 20Watt viel zu viel. Ansonsten hast du recht, eine extra onboard GPU würd die Karten nur teurer machen und die Leute meckern ja schon an den extrem günstigen Preisen der HD 5700 rum.

Es geht aber nicht um Notebooks, der zitierte hat die Technik nämlich für den allgemeinen Grafikmarkt, für den Desktop gefordert.
 
Schaffe89 schrieb:
Schade, dass Crossfire hier immer so verunglimpft wird im vergleich mit SLI.
Ich persönlich hab da noch nie nen Unterschied feststelen können und es gibt keinen funierten Test, der bescheinigt dass jedenfalls 2CF Karten weniger µruckler Prouzieren als 2Nvidiakarten.
Alles Subjektive Meinungen. Im letzten test sah man die Frametimes 2er HD5850 in Crysis... wunderbar.
Stalker Clear Sky dahingegend ist furchtbar, aber leide rgenauso furchtbar wie mit nem SLI System zu spielen.

Les dir mal den Test zu der GTX295 an. Die Mikroruckler sind natürlich nicht ganz verschwunden, aber sehr wohl in einem erträglichen Rahmen. Was man von Crossfire leider nicht behaupten kann. Doch ich habe mal gelesen, dass es technisch auch garnicht möglich sein soll, diese komplett verschwinden zu lassen. "response time distribution" oder so kram. Bin da nicht so versiert.:D
 
Zuletzt bearbeitet:
Nur leider bekommt man nie 100% Leistung für das Geld bei Multi-GPU Karten. Ich kauf keine Karte mehr dieser Art solange die diversen Probleme bleiben. Die Teile sollen endlich mal funktionieren wie Single GPU, dann ist wieder OK ^^
 
Solange die Mikroruckler und teils nicht vorhandene Unterstützung bei Spielen vorhanden sind, solang kaufe ich mir keine DualGPU Karte. Für soviel Geld und Hardware erwarte ein perfektes Produkt
Ergänzung ()

rockys82 schrieb:
Warum immer 2 Chips auf einem PCB verlöten, technisch sollte es doch machbar sein wie bei CPU's auf einem DIE 2 zu vereinen.

Wirtschafltich unsinnig da die Dies schon sehr groß sind und doppelt so große Dies den Ausschuß wenn Fehler vorhanden sind erhöhen. Wenn dann bei einer GPU nen Fehler ist müßen quasi beider weggeworfen werden.
 
Zuletzt bearbeitet:
milamber! schrieb:
Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
Vermutlich, weil 20W in einem Notebook eine ganze Menge sind. Solange der 9400M im 2D-Modus weniger nimmt, als ein 9600M im 2D-Modus ist es in einem Notebook schon sinnvoll, denn es verlängert die Akkulaufzeit.

Ob es in einem Desktop genauso sinnvoll ist, bezweifle ich, denn die zusätzlichen Kosten für den 2. Chip bekommt man über die Stromeinsparumg wohl nicht so schnell wieder rein. Da läuft eher die "Halbwertzeit" der Hardware ab, bevor der break-even-piont eintritt.
 
- Faxe - schrieb:
Ist doch wie bei NV, die Dual GPU Karte heisst ja auch nicht GTX275GX2 obwohl die Chips verbaut sind.

Ja, und das hat mich damals schon gestört. Finds schade, dass AMD jetzt auch auf den Zug aufgesprungen ist.

ShadowDuke schrieb:
alles im PC wird immer kleiner, nur die Graka wird immer größer :freak:

Was genau wurde kleiner :confused_alt: Maximal die DICE, aber an der Größe insgesamt... gar nichts.

Pascal67 schrieb:
Wieso die Radeon 5850/5870 nochnicht massenhaft zur verfügung gestellt wird sollte hier jedem klar sein, AMD machts schlau sie Produzieren nicht zuviel um nicht aufeinmal,auf einem teil der karten sitzen zu bleiben falls die neue Nvidia serie unverhofft erscheint

So ein Schmarrn ;) Glaubst du wirklich, dass diese Situatuon AMD gefällt? Gerade jetzt könnten sie bei guter Liefersituation viel Boden auf Nvidia gut machen, aber so gehts leider nicht. Obwohl dann eh Nvidia mit dem G300 gleich bzw sogar schlechter dasteht (da mehr Transistoren). Für die Kunden alles andere als zufriedenstellend, aber was soll man machen wenns bei TSMC scheinbar gewaltige Probleme gibt.
 
Zurück
Oben