News Passive HD 4770 mit 1 GB GDDR5 von Gigabyte

Da hat es die 4770 nicht gerade leicht , kommt ganz drauf an wieviel man Übertakten kann , die meisten gehen schon recht gut dank der 40nm GPU . Meine macht 1Ghz und maximal 1180mhz speicher , laufen lasse ich sie aber nur mit 1080mhz speicher , mit den takten liegt die 4770 etwas über der 4870 mit 512MB .
Ok man braucht auch einen anderen kühler , und man könnte dan lieber zur 4870 greifen da hier kaum noch ein preisunterschied besteht , aber das muss eben jeder selbst wissen.
 
Zuletzt bearbeitet:
HD4770 wer Kauft sich den bitte so ein scheiß teil , wen schon eine Gerforce 9800GTX+ :cool_alt:.
 
Äh - die ist zwar schneller, aber auch deutlich teurer :freak:
 
Oh man NV Rules ;) , Die 4770 ist deutlich günstiger und bei ATI limitiert der 512MB speicher nicht ganz so schnell , wen dan eine GTS250 mit 1GB .
Ausserdem ist die 4770 deutlich sparsamer im 3D betrieb , als der alte G92b .
 
Ja sorry , die HD4770 ist im 3D betrieb sparsamer als die 9800GTX+ oder GTS250 .
 
Aber auch langsamer, bitte nicht unterschlagen. Auf der anderen Seite ist eine GTS250 idle sparsamer.
 
... außerdem wären wir dann auch wieder bei der unterschiedlichen Bildqualität, die für bestimmte User extrem wichtig ist ... ;)
 
ok hier die zusammenfassung:
die gts250 ist
+ schneller
+ idele sparsamer
+ für Thaquanwyn: bessere bildqualität ;)
+ physx, cuda, blabla...

die 4770 ist
+ deutlich günstiger
+ last sparsamer
+ dx10.1, blabla....

was sagt uns das? dass beide karten völlig unterschiedliche vorzüge haben^^
sind beides imho top karten. allerdings sprechen beide auch unterschiedliche käufer an und sind darum keine direkten konkurenten.
 
Macht es Sinn von einer 3870 upzugraden?
Macht es Sinn von einem VW auf einen BMW aufzurüsten?
Wir wissen nicht mal, was du für Hardware hast, wozu du sie benutzen willst und wie oft du spielst.
Trotzdem würde ich ja sagen.


@Sublogics
Dein Link mit der falschen Schreibweise von Standard ist eine dreist dumme Ansammlung, die andere "Quellen" zitiert, die mindestens genauso willkürlich sind.

Wenn 2 Blödfug schreiben und sich dabei gegenseitig zitieren wird eine "Tatsache" mitnichten zur Realität. Das wäre so, als wenn man der BILD Zeitung glaubt, weil sie eine hohe Auflage hat.
Was du damit ausdrücken willst, wird mir nicht wirklich klar.


HD4770 wer kauft sich denn bitte so ein Scheiß_teil ,_wenn schon, dann eine Gerforce 9800GTX+_.
Peinlich. Aber so Leute braucht es auch, damit der Ebayhandel in Gang bleibt.

so weit lässt sich der speicher net oc'n das du das beschnittene SI wieder wett machst...
je nach game settings und qualitäts einstellung der treiber usw. kommt ne 4770 evtl arsch nah dran an die performance... aber nicht drüber das kauf ich dir nicht ab
Ahja, das Speicherinterface.
Das ist abhängig von der Multiplikation sozusagen aus der SI Größe und dem Grafikram. Da die HD4770 die modernere Karte ist und GDDR5 hat, gleicht sich die Bandbreite fast aus.

Die Hd4770 ist nicht so schnell wie eine HD4870? Wenig verwunderlich, die 1. ist eine Mittelklassekarte für 90 Euro Startpreis, die 2. ist ehemaliges Highend für 250 Euro Startpreis. http://geizhals.at/deutschland/?phist=354896&age=2000

+ für Thaquanwyn: bessere bildqualität
Beweis?




@Topic

Die Hd4770 braucht eine saftige Ecke weniger Strom als ihre großen Geschwister.
Laut CB sind das unter Last (!) rund 40 Watt zur Hd4850.
https://www.computerbase.de/2009-04/test-ati-radeon-hd-4770/22/#abschnitt_leistungsaufnahme

Wie kühl sie trotzdem bleibt im angeblich so hohen idle Stromverbrauch (den man per RivaTuner bearbeiten kann) kann man in dem Posting finden:
Die Temperaturen meiner vor 2-3 Wochen umgebauten HD4770 mit einem moddifizierten Accelero S1.
Die Graka ist idle. Der Quad läuft unter PRIME.
http://www.hardwareluxx.de/community/showpost.php?p=12116757&postcount=264

Wer etwas halbwegs Sparsames sucht, sollte hier zugreifen. Die ganze Diskussion um die 15-20Euro für einen verdoppelten Ram ist doch die Mühe gar nicht wert. Kaufen, genießen, fertig. Wer die Leistung nicht braucht kauft halt gar nichts.
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
Wie oft noch und warum forderst du für die anderen Punkte keine Beweise?

Zwei Worte für die Suche reichen: "AI" und "Filterqualität"
Über die AA Modi könnte man lange diskutieren, deshalb lassen wir das.

Das Seltsame ist, bei 4500 Beiträgen scheint es unmöglich, das du dies nicht weißt, daher muss dies eine fiese Fangfrage sein.
 
Ich dachte Gainward wollte sich von ATI/AMD trennen? Warum nun doch noch ATI Karten? Lagen die noch "auf Lager"?
 
Lubber schrieb:
Ich dachte Gainward wollte sich von ATI/AMD trennen? Warum nun doch noch ATI Karten?

Das Leute hier im Forum schreiben ohne vorher nachzudenken ist man leider ja schon gewoehnt. Aber das Leute hier schreiben ohne vorher den Artikel gelesen zu haben ist schon extra peinlich. :freak:
 
y33H@ da du dich gut mit NV auskennst , könntest du mir sagen ob die GTX275 besser als eine toxic HD4890 ist ,und warum.Möchte mir gerne eine GTX275 gönnen oder eventuell die 4890.
 
Definiere besser.

Besser ist bei der 275 das AF [mit HQ und ohne "Optimierungen" sowie oft bereits default] und die Lautstärke [RefDesign / Palit-Design] sowie die Leistungsaufnahme in 2D/3D und die freie Wahl der AA-Modi. Für die Toxic spricht leider nicht viel, außer das sie einen Ticken flotter und das Spulenfiepen bei hohen Fps kaum vorhanden ist, zudem gibts für die Geometrie (und nur für die!) nichts besseres als 24x ED-CFAA. Ich würde eher die leise HD4870 Toxic oder VaporX nehmen, wenn es eine Radeon sein soll. Aus meiner Sicht ist die 275 so oder so die bessere Karte, weil ich sehr viel Wert auf BQ und silent lege.
 
Mir geht es teils um die leistung beider karten , wer jezt gerne etwas Übertakten möchte für den ist doch sicher die GTX275 die bessere wahl , angeblich kommt eine GTX275 OC fast an einer GTX285 dran stimmt das ? Mir ist eigendlich egal ob NV oder ATI hauptsache das P/L passt zur Grafikkarte .
 
Unyu schrieb:
Wie oft noch und warum forderst du für die anderen Punkte keine Beweise?[...]Das Seltsame ist, bei 4500 Beiträgen scheint es unmöglich, das du dies nicht weißt, daher muss dies eine fiese Fangfrage sein.

Für viele der anderen Punkte habe ich halbwegs objektive Fakten, Tests oder Vergleich bzw. (Vor-)Kenntnisse.


Es ist keine Fangfrage und ich wüßte nicht, seit wann derjenige der einen Beweis haben möchte, die Quelle suchen soll und nicht umgekehrt. Aber was solls, sind ja nur Grakathreads.
Ich habe es wirklich nicht gewußt und wann immer hier über das Thema diskutiert worden ist und es mal maximal Standbilder gab, waren die Unterschiede für mich(!) absolut marginal. Die Argumente der Lager waren hoch subjektiv. Ich hatte einfach nur gehofft, dass diesmal ein Link kommt, der mich überrascht. Schade, dass nicht.

Das Posting war nicht spitzfindig gemeint sondern ich behalte es mir lediglich vor die Leute zu hinterfragen, die meinen sie müssten immer den Mainstream à la Nvidia und Intel in den Himmel loben. Denn das ist nicht fair und schon gar nicht korrekt.
 
@ Quad-core

Prozentual gehen beide im Schnitt ähnlich gut, die Vcore kann man auch bei beiden erhöhen. Da die GTX275 aber mit Chip, ALUs und VRAM skaliert, die HD4890 aber fast nur über den Chip, kommt man im Schnitt mit der GTX275 einen (mess- aber nicht spürbaren bzw. entscheidenden) Ticken besser weg.

@ Zwirbelkatz

Schau dir mal diese Videos an und am besten den ganzen Thread dazu. AI ist selbst off schlechter als Q, HQ ist viel viel besser. AMD muss bei der Filterung sparen, sonst wäre eine HD4890 mit 16:1 AF nur so schnell wie eine 9800 GTX+/1G oder oder gar noch lahmer.
 
Zuletzt bearbeitet:
Schau dir mal diese Videos an

Crysis_HQ_4x4_SSAA.avi :o


Ist es nicht ein wenig irreführend ?

Ich meine, bis das in der nativen Auflösung auf dem Monitor eines high-end-karten-Besitzers(also minimum wsxga, eher wuxga) flüssig läuft wird sicher kein Mensch mehr Crysis spielen, weil es zu dem zeitpunkt seit jahren bessere Grafikblender gibt.

Da kann ich ja gleich mit einer V5 5500 antreten und sagen das es bis heute keine bessere Bildqualität gibt. Das man damit nicht spielen kann ist ja uninteressant ;)
 
Zurück
Oben