News ATi-Partner bringen Radeon HD 4890 X2

mich zuckt es übelst in den fingern jezze ^^

hab zurzeit ne hd4870 1G, bin schon am überlegen ne X2 oder ne 2. hd4870 zu holen
und jezze auch noch 4890x2 ? hm da zuckts schon.

Aber hoffe kann mich beherschen und auf die ATi 5000er Serie warten.
 
http://www.heise.de/ct/Grafik-Geruechte-Stirbt-Radeon-HD-4890-X2-den-Hitzetod--/news/meldung/136166

"Im Gespräch mit c't wies ein Boardpartner darauf hin, dass AMD beim geplanten Dual-GPU-Modell massiv mit der Hitzeentwicklung zu kämpfen habe und es deshalb noch nicht klar sei, ob eine X2-Version der Radeon HD 4890 überhaupt jemals über die Ladentische wandere."


Arhey schrieb:
@Mark3Dfx
Als ob nvidia keine Microruckler hätte.

Immerhin gibt NVIDIA Mikroruckler zu und arbeitet am Treiber das zu eliminieren.
Wärend AMTI generell abstreitet das es Mikrorucklern überhaupt gibt.
Und über die "Qualität" der Catalyst Treiber verlier ich besser kein Wort... :evillol:
 
sorry @ yeeha ich sehe bei den 2 bildern absolut keinen unterschied

ich hab beide bilder auf nem 42" FullHD plasma (Panasonic PZ85) angeschaut (1,5 meter entfernung)

0 unterschied für mich zu erkennen...

das einzige was mir auffällt, ist dass aufm linken bild das gras farbiger ist... das liegt aber warscheinlich am rauch/nebel
 
@ Gu4rdi4n1337

doch da ist ein Unterschied
schau dir mal die Kanten an! Bei einem Bild ist die KANTENGLÄTTUNG an beim anderen aus. Sowas merke ich au beim spielen...^^, auch bei dem anderen (ich weis nämlich gerade net welches AF/AA is^^) merkt man normal schon einen Unterschied (-->Crysis)
wenn man allerdings vor einem Fernseher sitz is man so weit weg, dass einem da das andere (also nicht Kantenglättung) nicht mehr auffällt.
Als Pro-Gamer (lol ;)) ist dies meine Meinung!
 
y33H@ schrieb:
Es ist ABSOLUT SINNLOS ab einer Auflösung von FullHD (1920x1080) AA und AF zu aktivieren
Das ist Bullshit³Du willst ernsthaft n 1080p-Film (!) mit einem Spiel, welches in Realtime gerendert wird, vergleichen?! :rolleyes:

Es wird anscheinend erwartet, dass du erklärst, WAS AF, wieso es so wichtig ist und dann noch auf die Kantenglättung eingehst.

Klar, man könnte einfach auf nen Artikel verlinken, aber ich schätze, dass ne einfache und kurze Erklärung erwartet wird.

@ Gu4rdi4n1337

Da siehst du keinen Unterschied? Na dann, gute Nacht. Das linke Bild rammt dir ja die Kanten ins Auge, das rechte schmeichelt da...
Vllt solltest du dir das mal am PC anschauen, aber grad an nem 24"er will ich nicht auf AA und AF verzichten...Auf letzteres besonders ungern, weil ich Pixelblöcke nun mal nicht so mag.
 
Gu4rdi4n1337 ist schon ein wenig zu beneiden wenn er da keinen Unterschied sieht, denn dann kann er auch mit Mittelklasse-Grafikkarten zocken, ohne Augenkrebs zu riskieren.
 
sorry @ yeeha ich sehe bei den 2 bildern absolut keinen unterschied
Wunderbar. Kauf dir eine Konsole und erfreue dich an upgescaltem 640p samt Matschtexturen und lustigen Blurfiltern - und das ganze bei unter 30 Fps :lol:
Es wird anscheinend erwartet, dass du erklärst, was AF, wieso es so wichtig ist und dann noch auf die Kantenglättung eingehst.
Wer das auf den Shots nicht sieht, dem ist nicht zu helfen.
Das linke Bild rammt dir ja die Kanten ins Auge, das rechte schmeichelt d
So schauts aus :D
 
:freak:

ähm
ja gut...

ganz kleine kanten auf dem langen gebäude

aber nix was beim zocken stört

da konzentrier ich mich auf was anderes als auf die optik

mach den gleichen shot mal mit 2xAA und 8x AA

ich wette dass du ab 2x garnichts mehr siehst
 
@Wuffi schrieb:
Ich weiß, dass es sich um eine Karte mit 4 GB (also 2 GB pro Chip) handelt. Mein Vorschlag war deshalb, lieber bei 2 GB (also 1 GB pro Chip) zu bleiben (und stattdessen die Anbindung zu verdoppeln). Und genau so habe ich das formuliert, was ist daran also so schwer zu verstehen? :confused_alt:
Das schwere ist der Sinn deiner Aussage.
Bei 2GB insgesamt. Hätte man effektiv 1GB zur Verfügung, weil 2 mal das gleiche im Vram liegt. Dieses 1ne GB wird dann von 2 Chips genutzt. Es wäre also zu vergleichen mit einem Chip, der die Leistung von 1 HD 4890 hat und 512MB VRam (2 HD4890 und 1GB VRam). Das ist schlicht zu wenig, da der Speicher die ganze Zeit überlaufen würde.

Pickebuh schrieb:
Nun das ist wirklich sehr interessant.
Nur frage ich mich warum es im Allgemeinen "Verbraucher" und nicht "Umwandler" heißt ?
Darüber sollte man schon eher mal nachdenken !
Das liegt einfach daran, dass Strom Verbraucht wird und Wärme erzeugt wird. Das ganze ist aber eine Umwandlung von elektrischer Energie in Wärmeendergie.
Strom in dem Sinne, in den 96% der Deutschen ihn verstehen kann verbraucht werden. Elektrische Energie hingegen nicht.
Man sagt ja auch, dass man Wasser verbraucht, wenn man es die Toilette runterspült, weil es für dich nicht mehr direkt zur Verwendung steht.
 
@Gu...: Warum schließt du von dir auf andere? Ich krieg beim 1. Bild das Kotzen und das Liegt nicht nur an den Gebäuden:D:D
 
H€553 schrieb:
Das schwere ist der Sinn deiner Aussage.
Bei 2GB insgesamt. Hätte man effektiv 1GB zur Verfügung, weil 2 mal das gleiche im Vram liegt. Dieses 1ne GB wird dann von 2 Chips genutzt. Es wäre also zu vergleichen mit einem Chip, der die Leistung von 1 HD 4890 hat und 512MB VRam (2 HD4890 und 1GB VRam). Das ist schlicht zu wenig, da der Speicher die ganze Zeit überlaufen würde.

Häh? Erkennst du deinen Widerspruch nicht? Bei 2 GB insgesamt hat man effektiv 1 GB pro Chip zur Verfügung, das ist schon richtig.

Aber wie kommst du dann da drauf, dass daraus dann 512 MB werden, weil 2 mal das gleiche im VRAM liegt? Nicht in den effektiven 1 GB liegt 2 mal das gleiche, sondern in den beiden 1 GB Speichern zusammen. Das ist doch der Grund, weshalb sich aus 2 GB insgesamt effektiv nur ein GB ergibt. Der Gesamtspeicher wird durch die Anzahl der Chips geteilt, bei 2 Chips hat man also effektiv 1 GB zur Verfügung. Und da drin liegt nichts doppelt. Doppelt ist es nur, weil man eben 2 GPUS hat, denen beiden ein getrennter Speicher mit den gleichen Daten zugrunde liegt.

An die anderen: Unterstützt doch wenigstens mal meine Aussage, sonst glaubt wieder keiner, dass ich richtig liege (und das tuhe ich definitiv). ;)

Edit: Ach ja, aber den Sinn deiner Aussage musst du mir auch nochmal erklären. Der ist nämlich definitiv falsch.
 
@Wuffi: hast recht.
@H€553: Nur weil in die beiden Speicher denselben Inhalt haben, heisst das nicht, dass nur einer genutzt wird. Sonst hätten ja X2 Karten nur einen Viertel des Speichers effektiv.
Wär ja quatsch...
 
/ironie on
ich warte lieber auf die gtx295 x2 ^^

ist doch logische schlußfolgerung gtx295 auf einpcb und dann 2 karten an einander kopeln... per internem sli chip. wie halt bei der 9800gx2

das ganze dann schöne über richtig tripple sli laufen lassen udn voila da hat man nen 3000w system ;-)
/ironie off
 
ganau... also nvidia auf auf... ^^

hey ich sollte morgen zum patentamtund miene idee schützen lassen ;-)
 
ich würd eher auf fake tippen ^^

naja .. hab bald n quad sli system aber noch auf 2 karten.. *fu*k*

bald sag ich den green it'lern den krieg an xD
 
Natürlich isses ein Fake!

Ohne Spawas und andere elektrische Komponenten wird so ne Karte wohl kaum laufen ;)
 
Dass QuzadSLI kein Sinn macht hängt aber damit zusammen, dass in dem Beispiel ein Core2Duo genutzt wurde. Da graben sich CPU und Graka gegenseitig das Wasser ab, wenn ich richtig informiert bin. Ein AMD System hätte also keine Probleme damit und in i7 System auch nicht.
 
Wie man zwischen den beiden Bildern keinen unterschied sehen kann, fällt mir ja schwer zu begreifen... Ich weiß zwar nicht obs unbedingt richtig schlimm stören würde beim Spielen, aber eindeutig zu sehen sind die Kanten jawohl auf jedenfall o.Ô
 
Zurück
Oben