News VisionTek stellt Radeon HD 4670 X2 vor

Die hauen jetzt wohl auch ihre Lagerbestände raus auf einer Grafikkarte mit zwei GPUs^^

Zotec hat es doch auch mit den GT250 Chips gemacht vor kurzen^^
 
Grafikkarten sind nicht zwingend zum Spielen da!

Für CAD oder Multimonitoring zum arbeiten finde ich ist das eine gut lücke steht in Konkurenz zu Matrox...
 
@wadenbeisser: du brauchst über den verbrauch gar nicht zu spekulieren, der wurde doch gemessen:
PowerUsage.png

quelle: http://www.neoseeker.com/Articles/Hardware/Reviews/Visiontek_HD_4670x2/14.html
idle schon 63 watt mehr als die gt240 ist ne hausnummer...

was die aktiven adapter für eyefinity kosten, weis ich leider gerade nicht, aber bei einem kartenpreis von 290 € geht diese "einsparung" wohl vollständig flöten vermute ich mal.

und was den platz von zwei einzelkarten angeht, in der leistungsklasse (<gt240!) sind singelslotdesigns keine seltenheit. einzig die zwei slots wären ein kleines argument, wenn man denn auch eyefinity ausschließen würde, allerdings würde die kaufpreisersparnis auch locker eine riesen auswahl an boards mit mehreren pci-e 16 slots erlauben...

ich sehe noch immer kein wirkliches argument, das für die karte spricht. für alles was sie bietet, gibt es billigere, schnellere, sparsamere alternativen.

ich bin mal gespannt, ob die karte jemals wirklich in den handel kommt, oder es ein marketinggag wie die glaxy gts250 dual bleibt.
 
@buntstift23,

das hat mit ATI wenig zu tun sondern mit VisionTek!:rolleyes:
ATI/AMD und andere verkaufen Chips ob du diese nun nutzt um 50 auf ein PCB zu bringen ist denen völlig egal sondern sachen der Hersteller hauptsache Chips wurden verkauft der rest ist wurscht.
 
@Lübke
Gut das du dich auf diese Werte beziehst denn da erkennt man sehr gut das da etwas mit dem Idle Verbrauch garnicht stimmen kann.
Die normale 4670 verbrauch dort fast 30W mehr als die GT240 allerdings widerspricht das Ergebnis Sowohl den Werten von ht4u Test, als auch denen die bei Computerbase gemessen wurden. https://www.computerbase.de/2010-02/test-ati-radeon-hd-5570/15/#abschnitt_leistungsaufnahme
Bei beiden Tests brauch beide Karten in etwar gleich viel.

Das gleiche Problem sieht man auch bei den Werten der 5570. Entweder funktionierte PowerPlay bei diesen Karten nicht oder im Test wurde ziemlich Mist gebaut. Des weiteren fehlen die eher interessanten multi Monitor Werte.

Ein aktiver Displayport Adapter kostet wohl um die 80-90 Euro und wieviele Rechner, die nicht zum zocken gedacht sind, hast du mit mehr als einem Slot fuer Grafikkarten gesehen..? Ich nicht einen.
 
Ion schrieb:
Also sry, da kann ich einfach nur sagen :volllol:

Wie verzweifelt muss solch ein Hersteller sein, um eine Graka mit der Technologie von 2008 jetzt auf den Markt zu bringen? Und dann noch 2GB Vram, wozu? Auf der Karte will ich Crysis auf nem 30 Zoll sehen. :D

Würd mich wundern, wenns ruckelfrei auf nem Taschenrechner läuft :freak:
Ich frag mich nur, wer so komisch drauf ist und sich sone Karte kauft? Ich meine in OEM-Rechnern wird sie sicher nicht verwendet und ehrlich mal, wer ne neue Graka will kommt doch nicht mehr um die HD5er drumrum...
Warum eigentlich keine Limited Edition? Naja, die wären sie wahrscheinlich alle nicht losgeworden ^^
Aber der Start der 5770 mit 4 Anschlüssen ist natürlich auch denkbar ungünstig für VisionTek, jetzt gibts überhaupt kein Kaufargument mehr, außer dass man 4 DVI Monitore anschließen kann.
allenfalls ne "bauernfängerkarte" für leute, die 4870x2 und 4670x2 verwechseln könnten?
Weil man das ja auch einfach überhaupt nicht bemerkt :D "War die nicht ein bisschen länger? Aaaach muss ein neues Design sein *20 Stück bestell*"

Hätte VisionTek sich jetzt zwei 5670er Chips geschnappt und 12 Mini-DPs drangebaut wärs was anderes gewesen. Aber so...

Für mich ist es nach der GTX480 und vlt noch der Asus Mars die sinnloseste Karte überhaupt.
 
Zuletzt bearbeitet:
"bald die 6000 Serie raus kommt" .... woher haste denn die Information? Würd ich gern mal wissen :)
 
Für ca. 60€ wär das Teil eine Überlegung wert...
...aber für 290 Dollar, wohl eher nicht.
 
Sehr sinnvolle Grafikkarte vorallem für den Preis!!! ...
 
Zurück
Oben