Nvidia: Weitere Angriffe auf Intel

Bylar

Lt. Junior Grade
Registriert
März 2005
Beiträge
396
Nvidia kann es nicht lassen, und attakiert Intel erneut:

Zu behaupten, dass Intels GMA 3500 DirectX 10-Fähigkeiten habe, wäre in etwa so, als würde man Styropor "Ernährungs-Fähigkeiten" zusprechen, so Nvidia wörtlich.

Finde ich zwar lustig und richtig, aber wenn Nvidia weiter so macht, werden sie noch mal gehörig auf die Fresse fliegen, glaube nicht, dass sich Intel dieses "durch den Dreck ziehen" lange gefallen lässt.

Quelle (deutsch): Gamestar

Quelle (original): Tomshardware
 
Zuletzt bearbeitet:
Intel hat das ja mit "eine schnelle CPU ist wichtiger als 'ne schnelle GPU" losgetreten.
Der Vergleich ist aber doch recht amüsant... :D
 
Ich finds richtig lustig, und - zugeben muss man es ja - es stimmt und ist ein offenes Geheimnis. Prinzipiell fähig zu DX10 ist er, aber taugen tut er dafür nichts. Wie Styropor als Nahrungsmittel ^^
 
und is ne Menge wahres dran.

Intel bekomtm momentan aber auch von allen Seiten Druck.. Erst das Kartellding mit den AMD Prozzis, dann drängen sich AMD und Nvidia mit in den Grafikchipmarkt rein, den Intel vorher beinahe alleine beherrschte und jetzt auch noch dei Anschludigung, dass die keine gescheite Grafiklösung anbieten würden bzw. versuchten den Kunden übern Tisch zu ziehen.
 
Die Treiber für die IGPs von Intel sind aber auch, mit Verlaub, grottenschlecht im Vergleich zu denen von ATI und Nvidia.
 
Es ist sehr gut so, denn Intel sollte mal von seinem hohem Ross runterkommen! Die zeiten ändern sich...
Gruß Kane
 
Uh uh was für eine böse Attacke ;) Wie so oft Kindergarten auf allen Fronten sowohl AMD als auch nVidia und Intel - aber unterhaltsam ist das Gerangel allemal.
 
Intel hat nie gesagt das man damit Crysis spielen könnte oder?

Nvidia tut so als ob Intel den Chip jetzt über alles andere stellt.

Denke selbst Nvidias möchtegern DX10 Chips ala 8400 usw. können ebenfalls kaum DX10 ordentlich darstellen, trotzdem steht DX10 drauf.
 
Solangs für die Vista Effekte reicht ist OK. Wenn Intel meint das sie Crysis auf max. Auflösung mit AA laufen wird, dann wirds lachhaft. Für nen Schlepi zum arbeiten reichts allemal. Ist halt kein Spielesystem. Ich finds auch unnötig ne GF9800GX2 zu kaufen nur um damit Vistatauglich zu werden, obwohl man nur Word verwendet.

mein 40Mhz Taschenrechner von Ti schaffts auch nen Weltraumshooter laufen zu lassen (man steuert Raumschiff). Wenn ich aber behaupte das das ding ne XBox ersetzt wirds lachhaft. Dafür wird ne XBox als Taschenrechner ausscheiden da zuviel Strom und Wärme.
 
@kane: also Nvidia ist nicht besser als Intel, was das hohe Ross angeht! Eher im Gegenteil. Ist zumindest meine Meinung.
 
Ich habe selbst Erfahrungen mit einem Nvidia-IGP, dem 630i/GeForce7150.
Und ich musste feststellen, dass dieser einfach nur grottig ist. Die Leistung ist okay, allerdings nicht besser als die des vergleichbaren G35. Nur funktioniert der Nvidia nicht zuverlässig, und läuft erst nach einer Spannungserhöhung überhaupt stabil.
Selbst wenn die kommenden intel-Chipsätze nur halb so schnell wären, wie die Nvidia, ich werde mir nie wieder einen Nvidia-Chipsatz kaufen. Den guten Ruf seit dem Nforce2 hat Nvidia mittlerweile verspielt, was sich auch in diesem Forum niederschlägt. Dass, außer bei SLI Systemen, grundsätzlich von Nvidia-Chipsätzen abgeraten wird, ist meiner Ansicht nach durchgehend gerechtfertigt. Die IGP-Lösungen sind hier keine Ausnahme.

Weitergehend kann man auch die Treiberversorgung durch Nvidia nicht als gut bezeichnen, wenn Fehler teilweise über ein halbes Jahr und länger nicht behoben werden und das fehlerhafte Speichermanagement, dass über mehrere Generationen verschleppt wird und immer noch vorhanden ist, ist auch kein Qualitätsindikator, genasowenig wie der Stromverbrauch der Chips.

Nvidia bietet selbst keine qualitativ oder innovativ herausragende Leistund an. Man kann froh sein, wenn Nvidias Produkte halbwegs ihren Dienst verrichten. Viele Produkte wirken unausgrereift. Im Gegensatz dazu bietet Intel, die eher konservativer erscheinen, zuverlässige Lösungen.
 
Zuletzt bearbeitet von einem Moderator:
Intel und NVIDIA scheinen sich richtig einander verschossen zu haben.
Allerdings ist das ganze Geplänkel typisch zwischen Konkurrenten und die Fronten zwischen den Beiden haben sich ja in letzter Zeit stark verhärtet.
Allerdings sollte NVIDIA nicht ganz so um sich schießen (man hat ja auch AMD angegriffen, nicht nur Intel) denn je nach dem wie sich die ganzen Sachen entwickeln könnte NVIDIA mit größeren Problemen in Zukunft zu kämpfen haben, eben weil Intel Prozessoren und Grafik macht und AMD durch ATI in der selben Liga mitspielt (der gebeutelte Zustand müsste nicht immer so bleiben).
 
Ich finds lustig :evillol:

Sollen die sich ruhig die Köpfe einschlagen, was hinten dabei rauskommt zählt bekanntermaßen :D
 
Bevor nvidia weiter das Fressbrett aufreisst,sollten sie mal dafür sorge tragen das ihre Karten mal vernünftiges Anti Aliasing auf die Kannte bekommen.... Da haperts nämlich gewaltig bei nvidia.
Die können sich wahrlich nicht lustig über andere machen.....
 
Naja, die Jungs von nVidia sollen mal sehen, daß sie langsam mal DX 10.1 bringen... wenn ich mir das Leistungsplus der ATi-Karten bei AC anschaue... ^^
 
@FortissimiIV: Das Leistungsplus der ATi-Karten bei AC lag daran, das durch das DX10.1 einige Features deaktiviert wurden oder so ähnlich. Ich glaube CB hatte dazu auch berichtet. Daher sollte in einem Patch für AC DX 10.1 erstmal wieder deaktiviert werden um herauszufinden wie das passieren konnte. Fazit: Dx10.1 lief nur besser weil auch deutlich weniger Effekte dargestellt werden mussten ;)

@Topic: Finde das nVidia wirklich nicht in Ordnung wie sie zu dem Thema kommentieren, aber recht haben sie allemal. Der Vergleich ist einfach passend ^^
 
@NoSyMe: Ähm... nein, lies mal genauer. Die Bildqualität unter DX 10.1 bei den Radeon-Karten war DEUTLICH besser, das AA lief WESENTLICH schöner als bei den GF unter DX 10. Wären da Features deaktiviert, würde die Qualität leiden, nicht besser werden.

Das haben ALLE Websites und Magazine übereinstimmend so berichtet. Der einzige Grund, warum DX 10.1 wieder weg ist... ist... TWIMTBP. Nix anderes. Meine Meinung.
 
NoSyMe schrieb:
@FortissimiIV: Das Leistungsplus der ATi-Karten bei AC lag daran, das durch das DX10.1 einige Features deaktiviert wurden oder so ähnlich. Ich glaube CB hatte dazu auch berichtet. Daher sollte in einem Patch für AC DX 10.1 erstmal wieder deaktiviert werden um herauszufinden wie das passieren konnte. Fazit: Dx10.1 lief nur besser weil auch deutlich weniger Effekte dargestellt werden mussten ;)

Das glaubst aber au nur du selber. Das ist die offizielle Begründung weil Nvidia bei Ubisoft druck gemacht hat. Bewiesen ist die Bildqulität bei weitem besser mit DX10.1 als mit DX10, zudem ist nur bei DX10.1 AA durchwegs möglich, und auch flüssig zu bekommen. Bei Dx10 funktioniert es an vielen stellen nicht mal. Das da was weg gelassen wird ist totaler schmarn, max die rechenersparnis die DX10.1 mit sich führt,aber das ist kein Programierfehler sondern nur der nachteil von DX10.


gruß
 
Zurück
Oben