Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Bilder, Daten und Erscheinungstermin zur HD 5970?
- Ersteller Volker
- Erstellt am
- Zur News: Bilder, Daten und Erscheinungstermin zur HD 5970?
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Cyman schrieb:Oh man, ich sehe immer noch keine wirkliche Entwicklung im Grafikkarten-Sektor.
Es geht offenbar immer noch um höhere Leistung, egal zu welchem Preis und der ist ein immens hoher Leistungshunger!
Unfug.
Natürlich gibt es sie, die Entwicklung. Es gibt nicht nur High Performance und Enthusiast Karten wie die X2, welche aus den Chips und den Speicher mit maximalen Takt und Leistungsaufnahme die maximal mögliche Performance holen.
Im Midrange und Entry bereich findest du karten wie die 5750, die Leistung einer 8800GTX oder Ultra bietet, die alten Karten dafür aber bis zu 100 Watt und mehr an Leistung benötigen. Auch im Idle verbrauch liegen Welten.
Also bitte schau mal über den Tellerrand, und erweiter deinen Horizont.
Cyman schrieb:Solange nicht Multi-Core GPUs rauskommen, welche abschaltbare Cores je nach Leistungsbedarf und einen 2D- sowie einen 3D-Betriebsmodus besitzen.
Die Apple MacBook Pros mit dem 9400M und 9600M-Chip haben ja zumindest im Ansatz etwas derartiges zu bieten. Auch wenn es nicht automatisch läuft und vom User entschieden wird und wenn nötig, lassen sich beide Chips dann zu einer Art Hybrid SLI zusammenschalten, soweit ich mich nicht irre.
Wenn ich die volle Leistung zum Spielen abrufen könnte und den Rest der Zeit mit dem allernötigsten für den Desktop-Betrieb arbeiten könnte, dann wär das in meinen Augen völlig ausreichend und sinnvoll.
Hybrid Power war nett gedacht, ist aber mittlerweile Obsolet, kein Wunder das Nvidia das auch nicht mehr nur noch begrenzt für OEM Hersteller zur Verfügung stellt.
Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Im kleinsmöglichen Packet also Platzbedarft, sollte man auch nicht unterschätzten, des weiteren sind sogar dual-GPU Karten zig mal effizienter als CPUs-> Cyman du bist ein Träumer...Natürlich gibt es sie, die Entwicklung. Es gibt nicht nur High Performance und Enthusiast Karten wie die X2, welche aus den Chips und den Speicher mit maximalen Takt und Leistungsaufnahme die maximal mögliche Performance holen.
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Du bist lustig, "begrenzt" Hybrid Power im Notebook ist eines der besten Features überhaupt von Apple und Alienware. Obsolet ist höchstens dein Beitrag...Hybrid Power war nett gedacht, ist aber mittlerweile Obsolet, kein Wunder das Nvidia das auch nicht mehr nur noch begrenzt für OEM Hersteller zur Verfügung stellt.
Im Notebook sind aber auch die 20Watt viel zu viel. Ansonsten hast du recht, eine extra onboard GPU würd die Karten nur teurer machen und die Leute meckern ja schon an den extrem günstigen Preisen der HD 5700 rum.Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
"fällt das nur mir auf, oder hats da irgendwas?? nur 21k punkte!? soviel hat man mit 2 260ern im SLI verbund und nem otto-quadcore @ 3.6 ghz..?? ist da der treiber noch so miserabel oder was ist da falsch?^^ wäre ja ne peinliche aktion, wenn die so schwach wäre.."
Lass mich raten: Du hast Physx im Treiber bei NVIDIA angelassen??? Schalt das mal ab dann siehst du was die echt an Punkten machen. So testen alle Seriösen Testseiten (auch Computerbase) um das Ergegnis nicht zu verfälschen...
Lass mich raten: Du hast Physx im Treiber bei NVIDIA angelassen??? Schalt das mal ab dann siehst du was die echt an Punkten machen. So testen alle Seriösen Testseiten (auch Computerbase) um das Ergegnis nicht zu verfälschen...
R
rockys82
Gast
Warum immer 2 Chips auf einem PCB verlöten, technisch sollte es doch machbar sein wie bei CPU's auf einem DIE 2 zu vereinen.
Das wäre Genial, und die Kommunikation untereinander sicherlich noch besser schneller, desweiteren könnte man die Karten etwas kleiner halten.
Das wäre Genial, und die Kommunikation untereinander sicherlich noch besser schneller, desweiteren könnte man die Karten etwas kleiner halten.
ShadowDuke
Cadet 3rd Year
- Registriert
- Jan. 2005
- Beiträge
- 48
alles im PC wird immer kleiner, nur die Graka wird immer größer 
Arbiter Elite
Banned
- Registriert
- Dez. 2006
- Beiträge
- 652
Solange die µ-Ruckler bei Crossfire das SLI-Niveau nicht erreicht haben, ist eine X2 Karte obsolet für mich.
Pascal67
Lieutenant
- Registriert
- Aug. 2008
- Beiträge
- 868
Wieso die Radeon 5850/5870 nochnicht massenhaft zur verfügung gestellt wird sollte hier jedem klar sein, AMD machts schlau sie Produzieren nicht zuviel um nicht aufeinmal,auf einem teil der karten sitzen zu bleiben falls die neue Nvidia serie unverhofft erscheint nvidia ,ein anderer Grund könnte natürlich auch sein das es im moment einfach nicht ausreichend herstellungskräfte gibt,oder halt mittel :XD
ka was AMD da macht ich hätte auch gern eine Radeon 5870 gekauft,wenn sie denn verfügbar wäre..........
ka was AMD da macht ich hätte auch gern eine Radeon 5870 gekauft,wenn sie denn verfügbar wäre..........
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Schade, dass Crossfire hier immer so verunglimpft wird im vergleich mit SLI.
Ich persönlich hab da noch nie nen Unterschied feststelen können und es gibt keinen funierten Test, der bescheinigt dass jedenfalls 2CF Karten weniger µruckler Prouzieren als 2Nvidiakarten.
Alles Subjektive Meinungen. Im letzten test sah man die Frametimes 2er HD5850 in Crysis... wunderbar.
Stalker Clear Sky dahingegend ist furchtbar, aber leide rgenauso furchtbar wie mit nem SLI System zu spielen.
Ich persönlich hab da noch nie nen Unterschied feststelen können und es gibt keinen funierten Test, der bescheinigt dass jedenfalls 2CF Karten weniger µruckler Prouzieren als 2Nvidiakarten.
Alles Subjektive Meinungen. Im letzten test sah man die Frametimes 2er HD5850 in Crysis... wunderbar.
Stalker Clear Sky dahingegend ist furchtbar, aber leide rgenauso furchtbar wie mit nem SLI System zu spielen.
Zuletzt bearbeitet:
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Kasmopaya schrieb:Du bist lustig, "begrenzt" Hybrid Power im Notebook ist eines der besten Features überhaupt von Apple und Alienware. Obsolet ist höchstens dein Beitrag...
Wie geschrieben, ausser für "OEM Hersteller"; kein wunder das sowas bei ner GTX 280M oder 260M verbaut wird, und die 9600M verbraucht auch nicht sehr viel weniger im Idle, vielleicht sogar mehr.
Warum das aber aber für den Rest des Marktes von Nvidia gestrichen wurde hat schon seine Gründe, wie z.B. Treiberprobleme, Herstellerzwang und Co., auch wenn du wieder mit der ständig wiedergekauten Leier daher kommst, das die Leute ja blos nicht zu viel zahlen wollen. Das nervt.
Kasmopaya schrieb:Im Notebook sind aber auch die 20Watt viel zu viel. Ansonsten hast du recht, eine extra onboard GPU würd die Karten nur teurer machen und die Leute meckern ja schon an den extrem günstigen Preisen der HD 5700 rum.
Es geht aber nicht um Notebooks, der zitierte hat die Technik nämlich für den allgemeinen Grafikmarkt, für den Desktop gefordert.
Arbiter Elite
Banned
- Registriert
- Dez. 2006
- Beiträge
- 652
Schaffe89 schrieb:Schade, dass Crossfire hier immer so verunglimpft wird im vergleich mit SLI.
Ich persönlich hab da noch nie nen Unterschied feststelen können und es gibt keinen funierten Test, der bescheinigt dass jedenfalls 2CF Karten weniger µruckler Prouzieren als 2Nvidiakarten.
Alles Subjektive Meinungen. Im letzten test sah man die Frametimes 2er HD5850 in Crysis... wunderbar.
Stalker Clear Sky dahingegend ist furchtbar, aber leide rgenauso furchtbar wie mit nem SLI System zu spielen.
Les dir mal den Test zu der GTX295 an. Die Mikroruckler sind natürlich nicht ganz verschwunden, aber sehr wohl in einem erträglichen Rahmen. Was man von Crossfire leider nicht behaupten kann. Doch ich habe mal gelesen, dass es technisch auch garnicht möglich sein soll, diese komplett verschwinden zu lassen. "response time distribution" oder so kram. Bin da nicht so versiert.
Zuletzt bearbeitet:
zombie
Captain
- Registriert
- Aug. 2004
- Beiträge
- 3.853
Solange die Mikroruckler und teils nicht vorhandene Unterstützung bei Spielen vorhanden sind, solang kaufe ich mir keine DualGPU Karte. Für soviel Geld und Hardware erwarte ein perfektes Produkt
Wirtschafltich unsinnig da die Dies schon sehr groß sind und doppelt so große Dies den Ausschuß wenn Fehler vorhanden sind erhöhen. Wenn dann bei einer GPU nen Fehler ist müßen quasi beider weggeworfen werden.
Ergänzung ()
rockys82 schrieb:Warum immer 2 Chips auf einem PCB verlöten, technisch sollte es doch machbar sein wie bei CPU's auf einem DIE 2 zu vereinen.
Wirtschafltich unsinnig da die Dies schon sehr groß sind und doppelt so große Dies den Ausschuß wenn Fehler vorhanden sind erhöhen. Wenn dann bei einer GPU nen Fehler ist müßen quasi beider weggeworfen werden.
Zuletzt bearbeitet:
0x4A6F686E
Ensign
- Registriert
- Sep. 2009
- Beiträge
- 186
Vermutlich, weil 20W in einem Notebook eine ganze Menge sind. Solange der 9400M im 2D-Modus weniger nimmt, als ein 9600M im 2D-Modus ist es in einem Notebook schon sinnvoll, denn es verlängert die Akkulaufzeit.milamber! schrieb:Wofür eine Onbard GPU, und einer abschaltbaren Dedicatet GFX, wenn die neuen Karten im Idle 20 Watt und weniger verbrauchen?!
Ob es in einem Desktop genauso sinnvoll ist, bezweifle ich, denn die zusätzlichen Kosten für den 2. Chip bekommt man über die Stromeinsparumg wohl nicht so schnell wieder rein. Da läuft eher die "Halbwertzeit" der Hardware ab, bevor der break-even-piont eintritt.
P
Pickebuh
Gast
wudu schrieb:Mondpreise zahlen oder aber vor den Shopwebseiten "sitzen".
Naja jetzt wissen wir wenigstens wozu Eyefinity gut ist.
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.627
- Faxe - schrieb:Ist doch wie bei NV, die Dual GPU Karte heisst ja auch nicht GTX275GX2 obwohl die Chips verbaut sind.
Ja, und das hat mich damals schon gestört. Finds schade, dass AMD jetzt auch auf den Zug aufgesprungen ist.
ShadowDuke schrieb:alles im PC wird immer kleiner, nur die Graka wird immer größer![]()
Was genau wurde kleiner
Pascal67 schrieb:Wieso die Radeon 5850/5870 nochnicht massenhaft zur verfügung gestellt wird sollte hier jedem klar sein, AMD machts schlau sie Produzieren nicht zuviel um nicht aufeinmal,auf einem teil der karten sitzen zu bleiben falls die neue Nvidia serie unverhofft erscheint
So ein Schmarrn