News VisionTek stellt Radeon HD 4670 X2 vor

beim Speicher fährt man anstelle von 512 MByte GDDR3 mit 1.000 MHz in einer deutlich anderen Klasse.

soll da nicht eine frequenz stehen? ... die speichergröße habt ihr im text weiter oben doch schon angegeben
 
@ Redphil,
irgendwie ein sehr schwaches Argument :(
Gibt es doch zahlreiche Grakkas für den ganz normalen PCI-Slot :rolleyes:
Wie bereits erwähnt: Großartig spielen wird man eh nicht auf allen Displays und für ein paar office Anwenungen / Arbeitsflächen reicht eine PCI-Karte eig völlig aus :freaky:
Und günstig sind die auch noch :evillol:
 
Wuhu, und noch mehr Müll wird produziert, weiter so und in ein paar Jahren wissen wir nicht mehr wo wir noch Ressourcen herbekommen sollen.
 
zu teuer für die alte Technik, die eben vorgestellte 5770 Flex ist deutlich interessanter, evtl. kommt bei der HD5-Serie da ja noch mehr bzw. unterstützen die 6er dann noch mehr Monitore.

Einziger Vorteil, 4 Monitore per DVI/VGA, aber wenn ich 2 SingleSlotkarten verwende bekomme ich sowas auch hin... so gesehen hilfts auch nicht sonderlich viel, müsste schon als SingleSlot mit Patchbay oder sowas kommen, aber so?!
 
drago-museweni schrieb:
@Bullet Tooth und warum mit so alter Technik, das hätten die bestimmt besser gekonnt im neuen Gewand

Vielleicht waren die Gewinnmargen so höher.

Hilbertraum schrieb:
Naja, vermutlich ne Restposten Charge 4670 GPUs auf dem Flohmark erstanden, und jetzt wird versucht das ganze zu verwursten ... Höchsten interessant für Leute die 4 - 12 Bildschirme möchten...

Könnte sehr wohl an günstigen Einkaufspreisen liegen.


Da ist eine ideale Graka zum online Pokern, oder zum anschauen von irgendwelchen live Charts oder Aktienkursen, aber zum zocken sollte jeder wissen das eh nix ist.
 
Die Zielgruppe der Karte ist schon extrem gering, höchstens Sammler könnten sich noch interessieren.

- zu langsam für den Preis
- zu teuer
- zu spät auf den Markt gekommen

Und dann kann jeder der PCI und PCIe Slots frei hat nach belieben / passen weitere Grafikkarten einbauen. So hat man dann die Möglichkeit viele Monitore anzuschliessen.
 
Naja also Ich weis nicht. Das ist ne Sinnfreie Karte. Aber Gott sei dank war das nicht die Idee von AMD.
 
Auf dem Grafikmarkt geht es ja mittlerweile so zu wie auf der High Society. Hauptsache auffallen, egal wie sinnlos oder peinlich es auch scheinen mag.

Für 100 Euro hätte ich es vielleicht noch verstanden. Aber für 290 Dollar, ist es wirklich ein sehr lukratives Geschäft für VisionTek.
Ich meine, den RV730 bekommt man sicherlich schon fast geschenkt. :freak:

Für die Leistungsklasse, hätte auch locker 2x512MB V-Ram gereicht, aber 1GB ist eben zur Zeit IN.

Was solls. Man muss es ja nicht ernst nehmen.
Wobei ich doch jemanden kennen, der auf zwei HD4670 im CF steht. ;)
 
Also ich finds okey, das jemand sowas rausbringt, hat ja wie geschrieben nur Vorteile.

Aber jetzt mal im ernst, für was bringen die so ne Graka raus, das bringt ihnen eh sowieso nix
außer Entwicklungs- ein wenig Materialkosten, denn mehr als 10 Karten werden die weltweit nicht absetzen können. XD
 
Mensch na endlich, kann ich die 480er in Rente schicken. :D
Was denken sich die Entwickler? Für was so eine Karte? Ich verstehe es nicht. Gäbe es eine vernünftige Verwendung dafür?
 
Airbag schrieb:
Sicherlich ein schönes Sammlerstück.
Genau das war auch mein erster Gedanke - was für Leute, die schon Karten wie die 7800GT Dual, 1950Pro Dual oder Voodoo 5500er oder sogar 6000er ihr Eigen nennen :)
Einen anderen Platz und Zweck hat diese Karte auf dem Markt jedenfalls nicht.
 
Wow, ich glaube das ist seit langem wieder der Gipfel der Sinnlosigkeit^^. Vlt. will die Firma mal nen Brüller auf den Markt werfen, damit die eingerostete IT-Welt mal wieder lustig lachen kann oder die haben sonst i-einen sinnfreien Wettbewerb am laufen^^. Anders kann ich mir dieses, Entschuldigung, Stück Schrottware nicht erklären.

'Tschuldigung, aber langsam sollte man doch ne neue Newsrubrik aufmachen: "Kuriositäten, die die Welt nicht braucht"
 
wow was für ein sinnfreies produkt :O
ich neige ja dazu, in jedem produkt noch einen sinn zu finden und meist gelingt mir das auch, aber bei der karte (langsamer als eine gt240! teurer als eine gtx470! weniger monitoranschlüsse als jede eyefinitykarte! schlechtes leistung/watt-verhältnis, und und und...) da bleibt am ende wirklich das besagte auffallen um jeden preis. keine ahnung was die entwicklung der karte gekostet hat, aber so bemerkenswert ist die karte ja auch nicht.
allenfalls ne "bauernfängerkarte" für leute, die 4870x2 und 4670x2 verwechseln könnten? :D
 
Wenn einige hier mal auf den Gedanken kommen würden abseits des Spiele Sektors zu denken dann hat die Karte sehr wohl eine Daseinsberechtigung.
- 4 volle DVI Ports in einem PCIe Slot
- lt Text eine erhöhte Ausfallsicherheit
- GPUs die damals schon einen sehr niedrigen Idle Verbrauch hatten
- beim Anschluss von mehreren Monitoren explodiert der Idle Verbrauch der GDDR3 Karte im Gegensatz zur GDDR5 Brüdern nicht

Alles in allem eine Karte die darauf ausgelegt ist die 4 DVI Anschlüsse auch zu nutzen.
 
das ist eine dual-slot karte wie jede andere eyefinitykarte für weit weniger als 290 tacken und mit einem deutlich geringeren stromverbrauch bei gleichzeitig höherer leistung auch.

das einzige wäre, dass eine gpu angeblich ein backup des ausgefallenen bildsignals im falle eines reinen gpu-schadens und zwar auf nur einer der beiden gpus ersttellen könnte. allerdings ist der ausfall einer grafikkarte meist nicht durch einen reinen gpu-ausfall bedingt, womit sich der nutzen auch minimiert. und sollte eine spannungsspitze die gpu zerschießen, würde es ebenfalls beide gpus treffen.

und wo liegt eigentlich der sinn darin, dass vom letzten bild der zweiten gpu ein backup auf der grafikkarte und nicht durch die anwendung selbst erstellt wird?

du hast recht, man darf nicht nur auf spiele schaun. aber auch abseits dessen fehlt mir ein wirklicher mehrwert der karte gegenüber anderen lösungen.
ich war erst in richtung gpgpu am überlegen, aber da sieht sie ja gegen eine 5750 schon kein land mehr...
 
termi666 schrieb:
Ist genau der gleiche Scheiß wie mit der Dual GTS 250!

es gibt leute die sammeln solche karten oder kaufen die nur um zu testen und zu schauen, wie weit ne low-end karte zu übertakten geht ... gerade bei solchen exoten gibts genug ...

denk mal an die XGI Volari Duo 8 ... selbst mehrere jahr nach dem aus der karten, gingen die zu hohen preisen bei ebay weg ... ne exotische dual-karte eben ;)
 
@HW-Mann: also das mit dem sammlerstück ist imho bis jetzt die naheliegenste erklärung. aber denke mal son pcb entwickelt man auch nicht für n appel und n ei. gewisse stückzahlen brucht es da schon, um auf +/- 0 zu kommen. bei den gts250 dual brauchte es keine entwicklung. das ist einfach eine 9800gx2 mit gts-bios. die 7800gt dual war damals eine hochleistungskarte. die volari duo 8 war auch ein versuch, in höhere leistungsregionen vorzudringen, da xgi nicht mit ati und nvidia schritt halten konnte... aber nur zum sammeln?
 
Lübke schrieb:
das ist eine dual-slot karte wie jede andere eyefinitykarte für weit weniger als 290 tacken und mit einem deutlich geringeren stromverbrauch bei gleichzeitig höherer leistung auch.

das einzige wäre, dass eine gpu angeblich ein backup des ausgefallenen bildsignals im falle eines reinen gpu-schadens und zwar auf nur einer der beiden gpus ersttellen könnte. allerdings ist der ausfall einer grafikkarte meist nicht durch einen reinen gpu-ausfall bedingt, womit sich der nutzen auch minimiert. und sollte eine spannungsspitze die gpu zerschießen, würde es ebenfalls beide gpus treffen.

und wo liegt eigentlich der sinn darin, dass vom letzten bild der zweiten gpu ein backup auf der grafikkarte und nicht durch die anwendung selbst erstellt wird?

du hast recht, man darf nicht nur auf spiele schaun. aber auch abseits dessen fehlt mir ein wirklicher mehrwert der karte gegenüber anderen lösungen.
ich war erst in richtung gpgpu am überlegen, aber da sieht sie ja gegen eine 5750 schon kein land mehr...

Dann schau dir mal die Verbrauchstests bei ht4u an. Ein einzelne 4670 zog in Idle etwas über 8W. http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index3.php
Das ganze mal 2 ergibt ca. 17W + Mehrverbrauch des Bridge Chip und der Backup Funktion.
Interessant wird es allerdings beim Anschluss mehrerer Monitore, denn da takten die Karten hoch: http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index7.php
Die 4670 ist dort zwar leider nicht dabei aber ene Tendenz ist mehr als deutlich erkennbar. Die GDDR5 Karten haben entweder von Anfang an einen hohen Idle Verbrauch (Speicher bei max. Takt) oder legen extrem zu wenn der Speicher in Idle im Takt gesenkt ist und bei mehreren Monitoren hochgetaktet wird.
Die Eyefinity Versionen der 5000er Reihe für mehr als 3 Monitore haben einen entscheidenen Pferdefuss...sie brauchen für mehr als 2 Monitore aktive Adapter, die derb ins Geld gehen.
Was wäre also die anderen alternative? Der Einsatz von 2 Grafikkarten? Nur wenn genug Platz und vor allem genug Steckplätze vorhanden sind und beide Varianten haben das Problem das der Ausfall einer GPU sehr deutliche Folgen hat.

Wie sie bereits selbst sagten...die Marktlücke ist klein aber vorhanden. Von sowas lebt auch Matrox.
 
Eine Frage stellt sich mir da: Wie nennt sich diese Karte gegenüber dem Ati-Treiber? Naheliegend wäre eine 3870X². Dann wäre die Treiberfunktionalität aber natürlich auch nur für die noch ältere Generation gegeben.
Ich glaube nämlich nicht, dass Amd extra für diese Karte eine Unterstützung im Treiber einbauen wird.
 
Zurück
Oben