News ATi: Offenbar kein direkter „Fermi“-Konter

Wenn sie wie AMD alle ihre Projekte OpenSource machen würden, dann wäre ich wirklich von Nvidia begeistert...

So wie die tollen ATI Linuxtreiber ..? :freak:

... das halte ich persönlich für genau so unwahrscheinlich wie die Tatsache, dass es in Zukunft keine DX9-Spiele mehr geben wird ...

Bis DX9 komplett verschwindet werden noch einige Jahre vergehen. Das volle Potential von DX10+11 können evt. SLI & CF Systeme nutzen und das für einen teilweise gerade mal marginalen Unterschied in der Optik. DX9 war über Jahre populärer Standard und hat sich nun mal ziemlich festgesetzt.

Von mir aus könnten die Entwickler aber auch wieder komplett zurück zu OpenGL - ist ein wenig aufwändiger aber dafür fortschrittlicher und förderlicher als der Mist von MS.

Die mittlerweile weitaus meisten Spieler starten ihre PS3 oder XBox, ein mit 300 Mio Tranistoren bestückter Grafikchip der vorvorletzten Generation nimmt seine Arbeit auf und siehe da: Spielspaß, ohne Abstürze, Inkompatibilitäten, DRM Amoklauf, Aufrüstwahn.

Komisch ... Zumindest bei der PS3 & XBOX360 habe ich von so einigen Abstürzen und Problemen gehört - DRM ist übrigiens auch bei den Konsolen angekommen und die Möglichkeit nicht aufzurüsten macht aus einer Konsole nur ein teures Komplettsystem was alle X Jahre ersetzt werden muss (komplett).

Alle PC Titel der letzten 2 Jahre die zur Kategorie " Muß ich haben " zählen, sind Multiplattformtitel.

Batman, DAO, COD und und und hätte ich auch auf einer 250,- € Konsole spielen können, halt ohne Crashes auf den Desktop.

Tja ... Geht auch mit einer 250€ Grafikkarte - klar Details runter aber das hast du auf der Konsole ja auch und die meisten TVs sind im Gegensatz zum Monitor so matschig das es einem kaum auffällt. Wenn Spiele zuerst für Konsolen entwickelt werden ist diese doch Mitschuld daran das die Portierung auf dem PC ein Witz ist.

Und jetzt die tollen PSsowieso, XBOXsowieso und Nintendos Irgendwas Titel - machen zum Start 400-600 Euro pro Konsole, da ist selbst unser toller Thermi noch ein Schnäppchen. Aber ich bin mir sicher DU brauchst NUR die PS3 und deren Titel - deswegen muss das natürlich auch für andere gelten oder so ...

Der PC als Spieleplattform ist Geschichte, nach 15 Jahren als PC Spieler habe ich mir jetzt auch eine PS3 gegönnt, FF13 sähe sicher geil aus auf einer RadeonFermi 58490, dummerweise wird es dieses Spiel wie so viele andere nie für den PC geben.

Ja ne ist klar ... :D
Du liegst da nicht so ganz richtig - zwar nicht für neue aber für jede ältere Konsole gibt es lauffähige Emulatoren mit denen du auch deine ORIGINALTITEL (sofern auf Disc vorhanden oder passendes Modul für den PC) auf dem PC spielen kannst. Selbst die Wii wird z.b. vom Dolphin schon ziemlich gut beherrscht.

Wenn es nicht diese Deppen wären die Konsolen so verteidigen würde es auch keine geben und selbst Nintendo würde sich auf dem PC Markt umsehen.

FF13 wird ansonsten auf jeder Karte nahezu gleich aussehen - ist ja eine Portierung mit matschigen Texturen die noch heute an den N64 erinnern.

Ansonsten werden Spiele - auch für die Konsole - auf PCs entwickelt und müssen dort mindestens auf den Systemen die eingesetzt werden lauffähig sein, sich die PC Version dann zu sparen wäre lächerlich.

Und ich geb da lieber alle X Jahre mal 200-300 Euro für ne neue GPU aus als 400-600 für 3 verschiedene Konsolen und evt. noch passenden Handheld.
 
Offtopic:
Das Gameplay der Wii begeister zwar, aber meiner Meinung nach wie so fortgesetzte Klassiker wie New Super Mario Browser Wii. Früher war es Mario vs Sonic oder Alex Kid vs. Sonic und genau solche Spiele fehlen mir auf dem PC und den anderen Konsolen.
Denn ab und zu ist auch mal so ein Spiel interessant.
Wo allerdings das neue Gameplay gut umgesetzt wird ist in PES.
Ergänzung ()

I-HaTeD2 schrieb:
So wie die tollen ATI Linuxtreiber ..? :freak:

Seit der Radeon 2XXX oder 3XXX Serie hat sich das eigentlich gelegt.
Noch dazu hat AMD hier so viel offen gelegt, dass seit 1 oder 2 Jahren an einem offenem Treiber gewerkelt wird: http://xorg.freedesktop.org/wiki/RadeonFeature

Und AMD unterstüzt auch sonst eigentlich alles was auf Linux laufen würde.
OpenCL usw.

I-HaTeD2 schrieb:
Bis DX9 komplett verschwindet werden noch einige Jahre vergehen. Das volle Potential von DX10+11 können evt. SLI & CF Systeme nutzen und das für einen teilweise gerade mal marginalen Unterschied in der Optik. DX9 war über Jahre populärer Standard und hat sich nun mal ziemlich festgesetzt.

Ich glaube eher, dass da zum größten Teil die Konsolen schuld sind und zum mitlerweile immer kleiner werdenden Teil Windows XP (Danke M$ :mad: )

I-HaTeD2 schrieb:
Von mir aus könnten die Entwickler aber auch wieder komplett zurück zu OpenGL - ist ein wenig aufwändiger aber dafür fortschrittlicher und förderlicher als der Mist von MS.

/Signed, endlich würde kein Windows mehr benötigt.
Schade, das die hier nen Rückzieher gemacht haben, aber verständlich:
http://www.golem.de/1002/72966.html
http://www.golem.de/1002/73042.html

@Konsole:
Das siehst du glaube ich nicht korrekt, aber da hab ich keine Lust drüber zu diskutieren.
Ergänzung ()

JokerGermany schrieb:
Wozu dann 3D Surround, wenn es das bis jetzt sogar noch nichtmal offziell gibt? ;) (Achtung Ironie, bitte nicht stolpern)


Ich glaube hier fing das mißverständnis an.
Du sprichst von Revelator.

Diese haben aber zu Kopfschmerzen geführt hat und eigentlich kaum noch was mit dem heutigen 3D zu tun hat.
Btw kann sich Nvidia nicht wirklich damit schmücken, da sie es nur soweit ich weiß von Elsa übernommen haben.

Verstehe aber nicht von welcher Nvidia 3D Technik du sprichst.

Wenn du Nvidia 3D Vision meinst, die gibt es erst Seit etwa knapp nem Jahr in Deutschland und hat sich auch nie durchgesetzt.
Nvidia hat aber anscheinend durch Physx gemerkt, dass sie das ganze gut durchdrücken können und zumindestens temporär daraus Geld ziehen können, wenn sie nur genug Werbung machen.
Es klappt wunderbar, denn für viele besteht die Überlegung nicht zu der Konkurrenz "überzulaufen" und mit dem zugeschobenen Riegel (der keiner ist), dass man neben einer AMD Karte eine keine Nvidia Karte als Physx Karten laufen lassen kann, hat man weiter dafür gesorgt, dass viele glauben unbedingt eine Geforce haben zu müssen.
(selbst wenn es schon längst einen Workarround gibt um doch eine Nvidia Karte als "Physx Spender" neben einer AMD Karte laufen zu lassen und Physx eigentlich ein eher kleines Licht ist und für wirklich "Gameplay-Relevantes" spielen sich nie durchsetzen wird, da properität.
Hätte Nvidia Ageia nicht aufgekauft hätte es sich allerdings durchsetzen können, weil beide Grakahersteller gleichberechtigt sich evtl. Physx hätten lizensieren können.
Allerdings hätte Ageia wahrscheinlich das Geld für die Werbung gefehlt..., was für uns Gamer aber bestimmt auch kein Beinbruch gewesen wäre...)
Genau diesen weg schlagen sie so langsam auch mit Nvidia 3D Vision an.
z.B. in JC 2 gibt es schon son "nettes"
GeForce_3D_Vision_Ready_badge.png
-Logo.
Ich wette diese Logo werden wir bei allen Physx-Spielen in Zukunft sehen, auch wenn ich mich Frage warum sie es bei JC 2
images
nennen und nicht Physx

Das ist der Vorteil an einer properitären Lösung.
Die Werbung für Physx und Nvidia 3D Vision (3D Surround) bedeutet bares Geld für Nvidia durch Grakakäufe.
AMDs offene "Open Stereo 3D" und das auch unterstützte OpenCL bringt "nur" der Spielerschaft was und keinen finanziellen Vorteil für AMD. Also warum sollten sie viel Geld für Werbung, wie es Nvidia bei ihren properitären Formaten macht, da reinstecken und später steigt dann einfach Nvidia kostenlos um...
 
Zuletzt bearbeitet: (Absätze helfen damit Texte gelesen werden^^)
Ich weiß nicht ob manche Menschen bloß begriffsstutzig sind, oder einfach mal nur total dicht in der Birne. Ich möchte gerne mal sehen wo hier steht, dass die bei ATI absolut "Garnichts" machen und sich irgendwo auf die faule Haut legen. Hier geht es ausschließlich darum, ob es denn einen DIREKTEN Fermi-Konter geben wird oder nicht. Einzig und allein der Geschäftssinn ist hier ausschlaggebend! ATI wird doch viel eher weiter an ihrer nächsten Generation arbeiten, anstatt jetzt mal auf die Schnelle ein absolutes Powerhouse zusammenzukleistern, welches 5 Megawatt schluckt und ein 45m² Apartment kuschelig warm hält.

Genau so und nicht anders sollte ATI den Kurs halten, viel lieber an der neuen Generation weiterarbeiten, als sinnloserweise auf einen Konter ihrer alten Grafikkartengeneration zu kontern. ATI hat dieses mal alles richtig gemacht und aus ihrer Vergangenheit gelernt, Grafikkarten welche über eine schlechte Energieeffizienz verfügen sind zu diesen Zeiten ein absolutes No-Go! Wo leben wir den... bis zu 150Watt... nVidia kann sich ihre GTX480 sonst wo hin stecken, ich würde mir in den Arsch beißen, als das ich so etwas auch noch belohnen würde. Das ist in ungefähr so wie Ubisofts neue Masche, so etwas verdient einfach nur puren Hohn -keine Vergütung!
 
Seit der Radeon 2XXX oder 3XXX Serie hat sich das eigentlich gelegt.

Deswegen brauche ich bei meinem Thinkpad R500 ja auch weiterhin eine nobackfill Version der xserver-xorg-core ... Die Performance ist bis dahin trotzdem weder ausreichend (im Vergleich - ich weiß das der verbaute Chip kein Leistungswunder ist) noch funktionieren die Treiber fehlerfrei.

Gallium3D hat mit der Entwicklung von OpenGL nix am Hut - es liegt hier einzig und allein an den Entwicklern auf OpenGL zu setzen und das setzt auch noch keine direkte Unixkompatibilität voraus.

Bin dahingehend froh das es noch ein paar Firmen gibt die weiterhin OpenGL nutzen und diesen proprietären Mist nicht unterstützen.

Und ja AMD wird weiterhin forschen und entwickeln - ein neuer Release ist zu diesem Zeitpunkt gar nicht notwendig. Wenn man eine geeignete neue GPU in peto hat wird man diese auch an den Mann bringen.
 
was will man da auch gross kontern? sich amüsieren trifft es eher. Der stromverbrauch disqualifiziert die 480 doch sowieso, da kann die karte schnell sein wie sie will. ati sollte sich da auch zu nichts hinreissen lassen und die provakation gezielt ignorieren.
 
Thermi hat schon seine Vorteile. Man hat einen Grill für den kommenden Sommer.
 
JokerGermany schrieb:
Offtopic:
...
Ergänzung ()

Ich glaube hier fing das mißverständnis an.
Du sprichst von Revelator.
Diese haben aber zu Kopfschmerzen geführt hat und eigentlich kaum noch was mit dem heutigen 3D zu tun hat.
Btw kann sich Nvidia nicht wirklich damit schmücken, da sie es nur soweit ich weiß von Elsa übernommen haben.
Verstehe aber nicht von welcher Nvidia 3D Technik du sprichst.
Wenn du Nvidia 3D Vision meinst, die gibt es erst Seit etwa knapp nem Jahr in Deutschland und hat sich auch nie durchgesetzt.
...
Das ist der Vorteil an einer properitären Lösung.
Die Werbung für Physx und Nvidia 3D Vision (3D Surround) bedeutet bares Geld für Nvidia durch Grakakäufe.
AMDs offene "Open Stereo 3D" und das auch unterstützte OpenCL bringt "nur" der Spielerschaft was und keinen finanziellen Vorteil für AMD. Also warum sollten sie viel Geld für Werbung, wie es Nvidia bei ihren properitären Formaten macht, da reinstecken und später steigt dann einfach Nvidia kostenlos um...

Shutterbrillen haben Prinzipbedingt eine Tendenz Kopfschmerzen zu verursachen, das ist bei den aktuellen Modellen(3D Vision) nicht anders als bei den Modellen aus dem Jahr 2000. Der wesentliche Unterschied ist das heute TFTs verwendet werden die generell ein stabileres Bild erzeugen als die damaligen Röhren. Unter aktueller 3D Technik verstehe ich Polbrillen wie sie derzeit im Kino üblich sind, leider ist diese Technik derzeit aufs Kino beschränkt(zu teuer). AFAIK ist die größte Neuerung an 3D Vision vs. Nvidia Stereoscopic Driver(die alten für CRT) die Unterstützung der Ausgabe auf spezielle TFTs. Damit es nicht flimmert müssen diese mindestens 120Hz schaffen und um die Abdunklung der Shutterbrille zu kompensieren, eine größere Helligkeit als normale Display erzeugen können.
Ich glaube du hast Recht damit das ELSA den Treiber ursprünglich entwickelte(1999 - siehe ELSA) und er dann erst von Nvidia eingekauft wurde(ca. 2002 - siehe Gainward), aber seitdem wurde er von Nvidia weiterentwickelt. Finde ich auch ganz gut, wenn man auf ELSAs Firmengeschichte zurückblickt. So haben wir heute zumindest einen funktionierenden Treiber der ansonsten mit ELSA verschwunden wäre. Kann jeder der eine Nvidia Karte hat mit einer billigen Anaglyphenbrille auf CRT oder TFT ausprobieren, die werden vom Treiber auch schon seit damals unterstützt.

OpenStereo klingt erstmal gut, ich bevorzuge auch offene Lösungen, bin schließlich Endkunde und kein Entwickler :)
Hier habe ich aber die Befürchtung das AMD/ATI sagen wird 'es ist ein offener Standard, die Definition haben wir schonmal festgelegt, jetzt kann jeder dafür entwickeln, wir bauen bloß die Karten' und dann passiert erstmal gar nix. Kennt man ja schon zur Genüge vom Vergleich Stream/OpenCL vs. CUDA. Wieso sollte Nvidia ihre Eigenentwicklungen der Konkurrenz zur Verfügung stellen, wenn die schon die billigere/bessere Hardware produzieren. Nvidia wird aus gutem Grund versuchen jedes Feature als Alleinstellungsmerkmal ihrer Karten zu vermarkten. Einen Vorteil für uns Kunden sehe ich in dieser Konstellation nicht, leider :( Es wird wohl darauf hinauslaufen das am Ende weder ATI noch Nvidia Zeit oder Geld in die Weiterentwicklung stecken und lediglich neue Hardware produzieren. Denn wenn Nvidia kostenlos auf die Entwicklung von ATI umsteigen könnte, dann gilt das im umgekehrtem Fall genauso. Verfahrene Situation.
 
also ich finde Eyefinity sowieso sinnvoller als 3D.... auf Flackern reagiere ich mit Kopfschmerzen und Krämpfen :freak:

Da bin ich nicht alleine, laut Studein sind Energiesparlampen und Neonröhren gesundheitsschädlich wegen der Flackerei und können eleptische Anfälle auslösen.

Bei den 3D Brillen ist es das gleiche.

Was das Problem an der heutigen zeit ist, das Wissen schnell untergeht.

Es gab Monitore in dnen 3 Displays saßen, wobei die äußeren leicht angewinkelt waren. der Abstand zwischen den Displays war in etwa 1 - 2 pixel groß.

Sowas müsste Ati zu den Karten anbieten, sie haben aber Samsung beauftragt und die haben bis heute nichts zu stande gebracht.

Würde man diese Firma aufspüren oder die Leute die da mal gearbeitet haben, wäre es ein leichtes einen EyefinityMonitor herzustellen
 
3D wird sich sowieso nicht durchsetzen, oder wer hat Lust ständig ne Brille aufzusetzen beim Spielen?
Von Kopfschmerzen und Unwohlsein mal ganz abgesehen, da fände ich eine größere Rundumsicht interessanter, vor allem weil die Augen geschont werden.
ATI muss überhaupt nicht kontern, nicht im Entferntesten.
Die HD5870 ist im Mittel nen Tick schneller als die GTX470 und ja die GTX480 kannst eh vergessen, also ist ATI so und so die bessere Wahl.
 
Das eine vernünftig eingestellte Shutterbrille Kopfschmerzen bereitet kann ich mir nicht vorstellen.
3 Stunden Avatar in Real-3D waren ja auch problemlos zu sehen.
72 mal in der Sekunde verdunkelt sich für beide Augen das Bild.
Ob nun ein LCD auf Schwarz geschaltet wird, ob ein zirkulärer Polarisationsfilter das nicht passende Bild ausfiltert oder ob ein Interferenzfilter das erledigt ist den Augen egal.
Daher ist die häufig aufgestellte Behauptung " Shutter=Kopfschmerzen / Polarisation= keine Kopfschmerzen" Blödsinn.
 
d-Raven-b schrieb:
Gut das deine Freundin so gute Augen hat. Pass ja auf, dass sie nie ein fremdes Haar an dir entdeckt. ;)

Aber eine Frage bleibt natürlich schon: Hat's dich denn auch gestört?

Ich frage mich auch, ob du damit wirklich Geld gespart hast.. Wenn ich mit meiner Karte 2-3 Jahre spiele, fahre ich brutto günstiger, als wenn ich mir jedes Jahr eine neue geholt hätte. Von den Stromkosten einmal abgsehen.

Rat mal, wer bei mir die ersten grauen Haare entdeckt hat :p

Naja, sie is beim Spielen eher anspruchslos (HD4200), aber damit ist eigentlich erkennbar gewesen, dass man nicht extra drauf achten muss, um sich daran zu stören.

Und da ich (m)eine Grafikkarte nicht für sie kaufe, sondern für mich: Ja, es hat mich bis auf ein paar wenige Spiele gestört. Und die Lautstärke wäre nicht derart das Problem gewesen (ja, es war laut), so es denn kein Referenzdesign war, sondern eine leisere Version.

Und da ich mittlerweile lieber alle 1,5-2 Jahre ne günstigere kaufe, (das mit dem Luxus gönnen war ja ein Reinfall) und meine Prioritäten weg von hoher/höchster Leistung hin zu Stromverbrauch/Lautstärke verschoben habe: Ich für mich fahre damit besser. Blöd nur, wenn sich dank TSMC nichts tut ...

Ach, hier sind wieder Linuxtreiber, etc. aufgetaucht: Die Öffentlichkeitsarbeit bei AMD ist eigentlich unter aller Sau. Bei P3d war der Intel-Themenabend ein voller Erfolg, während der AMD-Themenabend richtig mies verlaufen ist. Was hat man denn davon, wenn AMD gute Sachen herstellt, aber dann am Rest patzt?
Für meine Zwecke bin ich an sich gut mit AMD gefahren, weniger Probleme wie mit dem Nvidia-Treiber, auch wenn dieser potentiell besser/umfangreicher ist (Spieleprofile, Komfort).

Der beste Fermi-Konter ist eine Kunden/Software-Offensive mit Treibern, Programmen etc. Wenn man irgendwo hört, dass man sich für Unterstützung (als Programmierer etc) an AMD wendet und es keinen interessiert, während Nvidia sich sofort sich deren Probleme annimmt, dann ist das eher suboptimal für die Verkäufe.

e:/

@ Sühesse

Da möchte ich widersprechen: Avatar war recht anstrengend zu verfolgen, v.a. wenn man nicht an die Stelle seiner Wahl fokussieren kann/darf, gerade weil es 3D darstellen soll. Irgendwann hab ichs aufgegeben, aber ein "wahres" 3D-Erlebnis stell ich mir anders vor. Für den Film (Zeitspanne) war es noch zu ertragen, aber für länger daheim? Nein danke, ich wart lieber noch 5-10 Jahre und schau, was sich bis dahin noch so ergibt.
 
Zuletzt bearbeitet:
vander schrieb:
Man kennt das ja nicht anders von ATI, tolle Hardware, (inzwischen) akzeptable Treiber und ansonsten nix. Ok, als CUDA Pendant gibts Stream, was kaum unterstützt wird.

Ich möchte hier mal anmerken das AMD/ATI OpenCL favorisiert wozu auch Apple und Intel gehört, die Begründungen sind nachvollziehbar und machen Sinn: Ein offener verbreiteter und plattformübergreifender Standard ist einfach besser. Nicht anders verhält es sich ja mit OpenGL, für Spiele durch die Dominanz von DirectX im PC-Segment zwar von bescheidener Wichtigkeit (für Windows, bei Mac und Linux Distributionen sist OpenGL die 3D-Schnittstelle) aber sehr wichtig für Rendering und andere "professionelle" Aufgaben - wofür z.B. die FireGL Modelle konzipiert sind und entsprechende Pakete dabei haben.

Zu AMD's Treiber für Linux. Der OpenSource Treiber wird nicht von AMD entwickelt, es sind freiwillige Programmierer die diesen entwickeln und AMD ihnen die Möglichkeit anbietet ihr Material zum Ansprechen der Hardware nutzen zu können. Der OpenSource Treiber hat zwar wirklich Fortschritte gemacht, aber mit dem fglrx (den proprietären Treiber von ATI) kann er nicht direkt mithalten. Der fglrx hat aber auch Fortschritte gemacht. Ich bin richtig begeistert von dem fglrx bei meiner HD3470 in meinem Notebook, ich kann sogar 3D-Spiele mit Wine zocken (z.B. Morrowind). Schlechtere Erfahrungen hatte ich dagegen mit der Geforce8400 in einem anderem Notebook gemacht. Festhalten muss man nämlich auch, das NVIDIA's proprietärer Linux-Treiber alles andere als ein vorbildlicher Saubermann ist.
 
Shader schrieb:
Festhalten muss man nämlich auch, das NVIDIA's proprietärer Linux-Treiber alles andere als ein vorbildlicher Saubermann ist.

Und soweit ich wei0 bieten die zu wenige Informationen um einen offenen Treiber daraus schustern zu können.
 
AndrewPoison geb ich mal recht, Microruckler ist auch keine Lösung

Nur sind die super geworbenen Fermi Karten auf keinen Fall was feines.
Für ein halbes Jahr Verspätung eine Karte die ein Ticken schneller ist, super viel Strom brauch - ist es nicht wirklich eine Leistung - Manche Spielebenchmarks sind sowieso Nvidia optimiert - gibt es noch ATI optimierte Spiele ? - hab nie wirklich nachgeschaut - seit HL2

Nvidia müsste wenn schon, mal nachlegen - Rev.2 Karten - die nicht so hochgezüchtet sind.
Diese bitte dann auch anders nennen - 9800/8800er Karten - lustige Aktion von Nvidia
 
Ich finde, dass die 5870er Karten vollkommen ausreichend sind, nur dass der Preis derzeit jenseits von Gut und Böse ist, wesalb ich für den selben Preis wohl eher zur 480er GTX greifen würde. Amsonsten braucht ATI/AMD sich keine Sorgen zu machen.
 
Ich fände es verdammt gut wenn ATI im moment sich schon auf eine neue generation Konzentriert...
Neue revolutionäre technicken, die der welt bis heute verborgen geblieben sind :D. Denn einen Zeitvorsprung hatte ATI nun ja. Ich hoffe, dass sie diesen genutzt haben und sich nicht auf den Lorberen ihrer 5***er Series ausgeruht haben. Ich würde mich nähmlich mal freuen, wenn ATI jetzt die eindeutige oberhand am Grafikkarten Markt für sich gewinnt und zu Nvidia einen kleinen vorsprung ausarbeiten kann. Es war ja immer so, dass Nvidia ein wenig vorne lag etc. (Ich bin kein ATI Fanboy sondern nur einer, der denen etwas gönnt, die sich es wirklich verdient haben :D)

Edit:
@VitaBinG
Ich denke mal, dass ATI einfach ihren vorsprung Nvidia gegenüber augenutzt haben und deshalb die Karten schön teuer rausgehaun haben.
Das kann sich ja immer nur der erlauben, der die Nase vorne hat.
Die Preise der ATIs müssten jetzt aber eigentlich sinken, wenn sich die Nvidia Karten gut verkaufen, was ich nicht glaube und hoffen.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Das seh ich anders. Der PC ist immernoch die Platform mit der meisten Qualität.
Der PC kostet zwar mehr Aufwand, aber der lohnt sich auch.
Konsolen werden ja auch immer mehr in Richtung PC designed, von daher wird die Grenze zwischen Konsole und PC immer schmaler.

Ja der PC hat die meiste Quali, aber auch die meisten Probleme vergliechen mit den Konsolen. Softwarepiraterie und sich nicht durchsetzende Standarts (DX Versionen, 32- 64 Bit, Quads bzw. native Mehrkernunterstützung) zusammen mit enormen Ansprüchen der Kunden machen das Leben am PC Markt derzeit nicht grade Süss wenn man nicht gerade Blizzard/Activsion ist. Ich persönlich kann der Konsole zwar gar nichts abgewinnen, dafür spiele ich die flaschen Spiele, aber ich muss den Charm auf die Entwickler eingestehen.
Insofern können wir alle nur hoffen das mal bessere Zeiten kommen als diese mit Titeln wie C&C4, Supreme Commander 2 und super verhunzter Schutmaßnahmen wie in Siedler 7 und AC2.....
Mfg
 
Ich faende ein Fermi-Refresh von Nvidia eher sinnvoller.

So koennte man das wirkliche Gesicht des GF100 zeigen. Auch ohne 250w Verbrauch und der fast 100 Grad unter Last.
 
Zurück
Oben