News Benchmarks zur Grafikleistung von „Ivy Bridge“

CJay schrieb:
Also gerade bei solchen "Mittelklasse" Karten ist es spürbar ob etwas flüssig läuft oder nicht ob man mit 22 fps und dann mit 30 Fps Anno 2070 spielt ist doch spürbar.
Wo wir dann schon bei +36% waären und nicht bei +10-20 %. ;)


@Kasmopaya
Wie wird es erst wenn man den Nachfolger der GCN-Architektur verwendet. :o
 
Wenn die Leistung so beachtlich ist hätte man bei der Präsentation F2012 ja auch nicht als Video abspielen müssen ^^

Naja als Notfallgraka wenn die pcie grade Im Umtausch etc... ist.Was auch nice wär wenn man sie mit der pcie kombinieren könnte wie damals amd hybrid crossfire x.
 
Zuletzt bearbeitet:
Hier leben so manche nicht in der Realität, zumindest Ralf :D

Was hat dich denn gebissen das die lächerliche Intel-Grafik so verteidigt wird?

Ich spiel doch nix auf 800x600 lowest settungs und dann mit 30fps, ich glaub es hakt.

Halbwegs aktuelle Spiele die so aussehen wie bei der PS1?

Junge junge was bezahlt die Intel das du hier so einen Mist verzapfst?
 
Ich bin grundsätzlich nicht gerade der Meinung von Ralf555, aber er kann nun wirklich nichts dazu wenn du nicht in der Lage bist seinen Post zu verstehen.

Es ging darum ob mit Ivybridge auf Konsolenniveau zocken kann. Und er hat nen Sandybridge-Bench gepostet und gesagt dass Ivybridge mit der entsprechendnen Mehrleistung (wohl um die 50%) auch 720p flüssig schaffen würde. (recht optimistische Einschätzung)

Aber was glaubst du denn wie du auf Konsolen zocken kannst? 1080p+AA und riesiger Texturauflösung bei 60 fps? :lol:
 
Theoretisch ja, praktisch unsinnig.
Mit Lucids Hydra konnte man ja zB auch verschiedenste AMD und Nvidia-Karten mischen. Ist aber nen Heiden Aufwand und meist recht ineffektiv. Deswegen wurde Hydra ja auch eingestampft.

Kommt beides von einem Hersteller geht das bedingt (AMD). Dort kann man ein Crossfireverbund aus IGP und Karte nutzen. geht aber nur mit kleinen Karten und läuft eher mies (zB Mikroruckler).

Und praktisch ist das doch einfach nutzlos, die IGP mit ner starken Graka zu paaren. Eine 7770 zB ist so dermaßen schneller, dass die Hilfe der Intel-IGP selbst im optimalen theoretischen Fall doch kaum nützt. Und in der Praxis gibts massig Nachteile und inkompatibilitäten. Das du Intels IGP als "Boost" für ne andere Graka nutzen kannst wird wohl nie passieren.
 
Ralf555 schrieb:
Deswegen dürfte die GPU Leistung vom 17W Trinity mit seinen 2300 Vantage Punkten unter der von IVB 17W liegen.

Schließ nicht von den Topmodellen auf die kleinen 17Watt Modelle.
Wie dort die GPU Leistung zu AMd ausfällt, ist unbekannt.
Ich tippe allerdings mal darauf, dass AMD auch hier etwas schneller sein kann.

Die Ivy Bridge GPU sollte in der Lage sein jeden Konsolenport in Konsolensettings oder darüber zu spielen.

Wie man bei Crysis 2 sieht, packt man das eher nicht.
Niemand spielt mit 15 FPS.
Das muss aber auch nicht der Maßstab sein. Dafür gibt es dann Trinity, oder halt einfach ne dedizierte Karte.
Die meisten Spiele sollten aber auf low bis mid Settings laufen.
Muss ja kein Grafikkracher sein.
Ich denke da an Sims3, Dirt 2 oder auch Counterstrike, COD 4.
 
bensen schrieb:
Ich bin grundsätzlich nicht gerade der Meinung von Ralf555, aber er kann nun wirklich nichts dazu wenn du nicht in der Lage bist seinen Post zu verstehen.

Das ist Theorie keine Realität. Wenn das so einfach wär würde jedes Konsolengame auf einem mittel starken PC bei höchsten Einstellungen auf ein paar hundert fps rennen.

Außerdem habe ich doch zu verstehen gegeben das ein wirklicher Gamer keine aktuellen Games auf lowest Settings bei niedrigster Auflösung ohne alle AA-Varianten zockt. Hallo, Gegenwart!

Außerdem gibts auch Games die nativ für PC programmiert wurden.

Zusätzlich muß Intel erstmal die Treiber merklich verbessern um nur annähernd als spieletauglich zu gelten.

Mein System ist kein Überknaller aber meine 260 GTX rammt die SB-Grafik in Grund und Boden, die IVy wird auch unterliegen
 
Außerdem habe ich doch zu verstehen gegeben das ein wirklicher Gamer keine aktuellen Games auf lowest Settings bei niedrigster Auflösung ohne alle AA-Varianten zockt. Hallo, Gegenwart!
"Oh Herr, lass..." Staubwedel, denk bitte einmal an das schöne Wort "Zielgruppe"! Momentan sind die iGPUs als freundliche Beigabe für Nebenbeizocker gedacht, Leute die hauptsächlich am Desktop/Lappi arbeiten und für die Zocken ein bißchen Freizeitvergnügen ist. Davon gibt es nicht wenige, wie z.B. mich. Das mag für Vollblutgamer wie Dich erschreckend sein, aber es gibt Leute die den PC zum Brötchenverdienen nutzen! Echt!:)
Ich fahre eine SB HD3000 in meinem Desktop und für meine Lieblingsspiele reicht selbst die SB Grafik voll aus. (Cities 2012XL, DoW:Soulstorm, Hearts of Iron-Reihe, Europa Universalis-Reihe, Mass Effect 2, Star Craft2, ...) Es mag für AMD-Jünger ein Schock sein, aber die HD3000 packt einen ganzen Haufen Spiele (übrigens die große Mehrheit der am Markt befindlichen Spiele) ohne mit der Wimper zu zucken auf 1650 (nix 800, wie die Unken immer veraltete Kamellen aufwärmen) und mit mehr Details, als sich AMDler gerne einreden.

Terraconz hat es doch schön gesagt (paraphrasierend): Eine iGPU für Leute, die nebenbei zocken und sich ab und an ein Spiel, das sie mögen, vom Preisnachlasstisch kaufen. Da wird nicht viel an den Einstellungen gedreht. Es soll laufen und spaßmachen. Nicht mehr und nicht weniger.
Dafür reicht schon die heutige HD3000. Die IB iGPU wird noch etwas besser, ist aber für mich uninteressant, weil ich nicht ständig aufrüste.
Die Haswell-iGPU, daß könnte echt interessant werden.

Leute wie Du, die Zocken ohne Ende, haben ganz andere Ansprüche und schön so, aber nur deswegen muß man nicht auf die iGPUs herabschauen.
 
Tigerkatze hat recht, es gibt immer mehr "abundzuzocker", die natürlich für etwas zocken keine wuchtigen Grakas kaufen, aus diesem Grund gibt es die Igpu.

Meine Meinung:Intel sollte sich mehr auf die CPU Leistung konzentrieren denn an einen Llano kommt Intel in Jahren nicht ran :D
 
An Liano muss Intel auch nicht ran kommen, weil das ja der Punkt ist.
Wenn Zocken dann richtig und mit allen Details auf hoher Auflösung. Da kommt der Liano auch nicht mit.
Wer auf seinem Desktop ernsthaft mit der iGpu zocken will hat doch den Schuss noch nicht gehört.

Ich stimme auch @Tigerkatze zu und bin mir aber auch sicher, dass @Staubwedel noch keine Intel Grafik in Aktion gesehen hat. Da wird über etwas geschimpft ohne das man davon Ahnung hat. Ich habe selbst eine HD2000 und Treiber Probleme kenne ich einfach nicht. Zocke damit sogar gelegentlich.
 
Staubwedel schrieb:
Außerdem habe ich doch zu verstehen gegeben das ein wirklicher Gamer keine aktuellen Games auf lowest Settings bei niedrigster Auflösung ohne alle AA-Varianten zockt. Hallo, Gegenwart!
Du kannst ja gerne diese Meinung vertreten. Aber zitier dann nicht andere Leute die gerade eine andere Diskussion führen und schreib dann so einen Quatsch dahin der mit dem Zitierten nichts zu tun hat.
Wenn das so einfach wär würde jedes Konsolengame auf einem mittel starken PC bei höchsten Einstellungen auf ein paar hundert fps rennen.
Den Zusammenhang mit dem vorher geschriebenen kann ich jetzt nicht ganz nachvollziehen.
 
Tigerkatze schrieb:
Leute wie Du, die Zocken ohne Ende, haben ganz andere Ansprüche und schön so, aber nur deswegen muß man nicht auf die iGPUs herabschauen.

Kein Grund beleidigend zu werden.

Bin kein "Vollgamer" sonst hätte ich keine GTX 260 mehr.

Irgendwie scheint man hier beharrlich zu ignorieren was ich schreibe.

Ich hab einfach klarmachen wollen das die iGPU eben nicht wirklich gamertauglich ist, daran gibts einfach nix zu rütteln. Warum kapiert das keiner?

Das habe ich explizit geschrieben weil Ralf auf seine Aussage beharrte das die iGPU alle aktuellen Konsolenports locker spielbar darstellen können soll, was natürlich weit daneben ist. Selbst Gelegenheitsgamer müssen schon sehr anspruchslos sein wenn sie 3-5 Jahre alte Games auf lowest settings einstellen müssen um 30fps zu haben die dann evtl. nicht mal stabil sind.


@bensen

Behaupte nicht solchen Mist, ich hab mich explizit auf Aussagen bezogen mit meinem Beitrag. Es ist schlichtweg Schwachsinn was Ralf geschrieben hat, seine theoretischen Ansätze sind bar der Real World. Egal, welcher neuerer Konsolenport man hernimmt, auf der iGPU der Ivy wird man das nicht als spielbar bezeichnen können, selbst wenn die Ivy soviel Power hat wie die Konsolen. Hat auch etwas mit Optimierung zu tun, die meist nicht stattfindet, da die Zielgruppe nicht die mit iGPU ist.

Und da Ralf recht beleidigend war kann ich auch mal auf dem Putz hauen. Wobei ich wesentlich moderater war als er.


MikelMolto schrieb:
Ich stimme auch @Tigerkatze zu und bin mir aber auch sicher, dass @Staubwedel noch keine Intel Grafik in Aktion gesehen hat. Da wird über etwas geschimpft ohne das man davon Ahnung hat.

Lern einfach lesen...

Habe ich nicht geschrieben das ich ein NB mit i2330 mit iGPU habe und dies auch schon getestet?
 
Zuletzt bearbeitet:
Find ich klasse.....
Kaufberatung:Überschrift:Welchen AMD CPU zum Gamen?
Hallo blablabla...
Antwort:
Wie kannst nur ne AMD CPU zum Gamen kaufen......da musst zu Intel greifen,mit AMD kannst ja nix mehr Spielen.....Schau dir die Benchmarks an....
Und hier will man einem Einreden das ne Krüppelhafte HD 3000 oder jetzt HD 4000 zum Gelegentlichen Zocken geeignet ist.....Schaut euch die Benchmarks an,die HD 4000 kann nicht mal mit Liano mithalten.Wie wird das erst mit Trinity,höhere CPU Leistung,höhere GPU Leistung,weniger Verbrauch.....
Ergänzung ()

Diablow51 schrieb:
Naja als Notfallgraka wenn die pcie grade Im Umtausch etc... ist.Was auch nice wär wenn man sie mit der pcie kombinieren könnte wie damals amd hybrid crossfire x.
Wiso damals?
Du meinst Heute....
Aktuell teste ich gerad ein wenig mit dem A8 und der HD 6570 im Crossfire.
 
Staubwedel schrieb:
Irgendwie scheint man hier beharrlich zu ignorieren was ich schreibe.

Ich hab einfach klarmachen wollen das die iGPU eben nicht wirklich gamertauglich ist, daran gibts einfach nix zu rütteln. Warum kapiert das keiner?

Es haben genug Leute Beispiele gepostet die das Gegenteil behaupten. DIe kommen mit ihrer HD3000 zu recht. Die hast du doch auch einfach ignoriert, weil es wahrscheinlich nicht in deine Welt passt wo eine Intel iGPU doch was leisten kann. Warum sollten wir dich dann nicht einfach ignorieren. (Wobei auf deine Posts doch eingegangen wurde.)

Wenn man nicht an deinem Standpunkt "rütteln" kann, was sollte man da groß auch Antworten. Hast du schon mal mit einer HD3000 gespielt?

Die Rohleistung reichen für viele älteren Spiele. Der Gelegenheitsspieler will nicht unbedingt über 1700 Pixeln x sonstewieviel Pixel. Sondern er spielt Spiele die 20 € abwärts kosten. Das große Problem bei Intel ist der Treiber. Wobei dieser seit der 32nm Version stetig besser geworden ist.
 
MikelMolto schrieb:
Ich habe selbst eine HD2000 und Treiber Probleme kenne ich einfach nicht. Zocke damit sogar gelegentlich.
Ich kenne genug Problemchen mit der Intel HD 3000 in meinem Notebook. In Celestia (OpenGL) wird das HUD fehlerhaft und unlesbar dargestellt, bei Google Earth (egal ob Direct3D oder OpenGL) flimmern die Texturen mit anisotropem Filtern heftig und viele OpenGL-3.0-Anwendungen starten erst gar nicht trotz angeblichem Support im Treiber.
Bei OpenGL und Google Earth geht dummerweise auch Dynamic Switching auf die alternative Radeon HD 6630M nicht, so dass ich dafür immer manuell im Catalyst Control Center umschalten muss. Rein von der 3D-Performance her wäre die Radeon für die genannten Anwendungen nicht notwendig. Aber es sind eben die Unzulänglichkeiten des Intel-Treibers, die mich hier zur Nutzung der Radeon zwingen.
Wenn ich nur die Intel HD 3000 im Notebook hätte, wäre ich ziemlich genervt.
 
Leutz, das ist doch so einfach:

Alte Games (mit Intel außer OpenGL) + Browsergames: iGPU

Aktuelle Games (egal ob Konsolenportierung oder nativ): echte Grafikkarte

Zumindest wird es noch eine Weile so bleiben

Ich setze mal gewisse Detailgrade und Aliasing/Filtering voraus, denn alles auf low macht keinen Spaß ;) .

Ich muß es wissen, hatte mal einen P4 mit einer GF 4200Ti viel zu lange, spielbar nach fps aber keine Details und Mini-Auflösung ist kein Vergnügen
 
Staubwedel schrieb:
Behaupte nicht solchen Mist, ich hab mich explizit auf Aussagen bezogen mit meinem Beitrag. Es ist schlichtweg Schwachsinn was Ralf geschrieben hat, seine theoretischen Ansätze sind bar der Real World.
Ich hab selber gesagt dass ich die Einschätzung für sehr optimistisch halte. Das ändert aber nichts an meiner Kritik. Du kommst mit Fragen wer auf 800x600 spielen soll, dabei stand das nie zur Diskussion.
Dann kommst du damit an das niemand bei 30fps und Low-Settings spielt. Es ging in der Diskussion um den vergleich mit Konsolen. Da hat man nun mal niedrige Auflösungen (720p und kleiner), niedrige Details und garantiert keine 60 fps.
 
Zuletzt bearbeitet:
eVolutionplayer schrieb:
Jetzt fehlt nur noch etwas mehr Engagement im high end sektor und wir haben vielleicht eine neue Konkurenz zu Nvida & AMD.

Hahaha, der war gut.

Im Prinzip hätte Intel an der Grafikleistung nichts drehen brauchen. Man nutzt die Intel Grafik nur dann, wenn man Software nutzt, die keine große 3D-Beschleunigung braucht. Für mich bleibt der Llano das bessere Paket für Leute, die keine dedizierte Grafikkarte benötigen. Aber muss jeder selbst wissen, ob ihm Allrounderfähigkeiten wichtiger sind als Spitzenleistung im CPU Bereich.
 
bensen schrieb:
Ich hab selber gesagt dass ich die Einschätzung für sehr optimistisch halte. Das ändert aber nichts an meiner Kritik. Du kommst mit Fragen wer auf 800x600 spielen soll, dabei stand das nie zur Diskussion.

Das setzt aber voraus das die Konsolenports einigermaßen gelungen sind.

Mag sein das die Auflösung und fps bei Konsolen niedrig sein, aber trotzdem sieht das immer noch besser aus als wenn ich den PC auf lowest details setze

Wenn Ralf mich nicht dermaßen angemacht hätte wär hier auch alles etwas friedlicher verlaufen.


@Floletni

Wie oft muß ich denn noch schreiben das ich ein NB mit i3-2330, also HD3000 habe?

Ich hatte mal XP draufgehaun und schwupps, ganze 16fps in RE5 mit Standardeinstellungen.

Insofern ist das keine Frage meines Standpunktes sondern eben die Gegebenheiten.

Das mit den Treibern habe ich auch schon erwähnt, OpenGL ist generell problematischer, auch ATI hatte da in der Vergangenheit mehr Probs als Nvidia.
 
Zurück
Oben