Gamer: Achtet bei der Prozessorwahl auf den GEZ

Gegen Dummheit bin auch ich relativ machtlos, Verweigerer. Und wenn Du nicht lesen magst, was ich schreibe
nach diesem doofen Satz hab ich mir die PDF nicht mehr angesehen
finde ich Deine Teilnahme an dieser Diskussion reichlich witzlos.

Die Scheuklappen dicht zu machen ist ein probates Mittel, die eigene Dummheit zu kultivieren.
 
Zuletzt bearbeitet:
Juri, ich wüßte hier keinen Thread, wo ein i5 in Kombination mit einer Karte vom Schlage einer R7 250 als Gamingsystem empfohlen wurde.

Dein Gebashe gegen Intel nimmt leider ein wenig lächerliche Züge an, denn in der Realität gibt es folgende Konstellation:

- AMD muß x86 Lizenzen von Intel zahlen
- Intel muß die 64 Bit Technologie, die Intel als EM64T bezeichnet, bei AMD als Lizenz zahlen, da die AMD64 Technologie x86 kompatibel ist und deren eigene Intel Itanium 64 Bit Architektur das eben nicht war.

Kurzum: Intel hat kein gesteigertes Interesse daran, daß AMD in die Pleite rutscht oder ein anderes Unternehmen die Rechte dann besitzt, da dann wieder neue Konditionen ausgehandelt werden müssen.

Intel dürfte AMD auch wegen der dann auftretenden Monopolstellung nicht kaufen. Da hätte die US Börsenaufsicht und das US Kartellamt schon was gegen.

Was sagt deine GEZ denn eigentlich zum Intel Xeon E3-1230v3, als der vor dem steigenden Dollar für ca. 250 Euro zu haben war? Also sprich ein i7 zu einem i5 Preis?
 
Juri-Bär schrieb:
verarscht man nicht nur die Gamer, die nicht die Leistung bekommen, die sie bekommen könnten, sondern trägt auch dazu bei,Intels einzigen Wettbewerber aus dem Markt zu drängen. Die absehbare Folge davon wird doch sein, dass Intel dann künftig noch ungenierteren Preiswucher betreiben kann.
wie "groß" wird wohl der anteil der PCs, die nach einer kaufempfehlung in diesem und ähnlichen foren gekauft werden, an der gesamtzahl aller verkauften PCs sein? richte deine kritik an die OEMs und nicht an die leute hier. und verzichte vor allem darauf, ebendiese leute hier als "Intel-Protektionist[en]" zu bezeichnen und ihnen "Beihilfe zum gewerbsmäßigen Wucher" zu unterstellen, das ist schlichtweg dreist. pauschalisierte und bewusst provokative aussagen wie "Ein i5 ist nur was für Leute, die Geld an Intel zu verschenken haben." legen auch den verdacht nahe dass du alles andere als unvoreingenommen an das ganze rangehst.

edit @ Ltcrusher, gabs den 1231v3 nicht zeitweise sogar für unter 220€?

edit²: die waren beide im letzten sommer/herbst teilweise sogar für 200€ zu haben. manches war "früher" tatsächlich besser:D
 
Zuletzt bearbeitet:
Kann sein, möglich.
 
@Ltcrusher: wieso bashe ich Intel?

Da die Konkurrenz noch das Geschäft belebt, hat Intel mit Skylake doch einen großen Wurf hingelegt. Die iGPU hat nun fast das Niveau der alten Richland-APUs und die integrierte Intel HD 530 liegt doch schon in der Leistung zwischen Nvidia 730 und 740. Für jemanden wie mich, der nur mal Civ5 zocken möchte, ist dann doch sogar ein i3-6300 oder i5-6500 mit hoher Singlethreadleistung preislich attraktiv. Es kann gut sein, dass ein Skylake i3 oder i5 meine nächste CPU wird.

Für richtige Zocker, die die iGPU brachliegen lassen, ändert sich leider nichts. Der Skylake i5 bleibt eine CPU mit geiler Leistung. Gepaart mit einer 100 € GraKa liefert er dennoch nicht die frames, die ein X4 mit einer 220 € GraKa liefert. Der X4 hat unter dieser Voraussetzung satte 25% Geschwindigkeitsvorteil vor dem i5. die Minderleistung eines solchen i5-Systems wird tatsächlich an Intel verschenkt.

Zum Intel Xeon E3-1230v3 habe ich keine Messwerte zum Spieleparcour meiner GEZ-Tabelle. Aber ich kann mir nicht vorstellen, dass er aus einer R7-260X oder einer R9-280 mehr frames rausquetscht, als ein i7-4790K. Mit dessen Werten wäre er mit diesen GraKas auch für 200 € im GEZ-Ergebnis nicht gut.

@DeathAngel:
schlimmer geht immer. Der Gaming PC vom Geiz-Markt mit i5 und Nvidia 745 mit unglaublichen 4 GB eigenem (DDR3) Grafikspeicher ist kaum zu toppen. Aber mit ner 750TI ist der i5 im Gaming immer noch deutlich schwächer als ein X4 mit einer R9-280.
 
Zuletzt bearbeitet:
Ltcrusher schrieb:
Juri, ich wüßte hier keinen Thread, wo ein i5 in Kombination mit einer Karte vom Schlage einer R7 250 als Gamingsystem empfohlen wurde.

Dein Gebashe gegen Intel nimmt leider ein wenig lächerliche Züge an, denn in der Realität gibt es folgende Konstellation:

- AMD muß x86 Lizenzen von Intel zahlen
- Intel muß die 64 Bit Technologie, die Intel als EM64T bezeichnet, bei AMD als Lizenz zahlen, da die AMD64 Technologie x86 kompatibel ist und deren eigene Intel Itanium 64 Bit Architektur das eben nicht war.

Kurzum: Intel hat kein gesteigertes Interesse daran, daß AMD in die Pleite rutscht oder ein anderes Unternehmen die Rechte dann besitzt, da dann wieder neue Konditionen ausgehandelt werden müssen.

Intel dürfte AMD auch wegen der dann auftretenden Monopolstellung nicht kaufen. Da hätte die US Börsenaufsicht und das US Kartellamt schon was gegen.

Er hat doch schon Beispiele genannt. Und selbst eine 260 in Verbindung mit einem I5 ist schon eine seltsame Kombination. Für eine 260 hätte ich auch meinen alten Prozessor behalten können.

Und Intel hat kein Interesse an einer Pleite von AMD, aber auch kein Interesse an einem echten Konkurrenten. Oder hast schon die tanzen Rabatte vergessen und die darauf folgenden Strafzahlungen?

Gerade versucht Intel das im Bereich Arm ja wieder. Nur das bekommen sie ja keinen Fuß in die Tür.
 
Zuletzt bearbeitet:
Juri-Bär schrieb:
Grafik/Geld-Effektivitätzoom (=GEZ)
Epic Thread


Nette Zusammenstellung usw. Leider mit Haken.
1. Bei 60 fps ist nicht Schluss. Ich z.b. Hab nen 80 Hz moni und will auch immer wenigstens 80 fps haben. Andere besitzen G-Sync & Co und haben 144Hz usw - dementsprechend muss die Hardware rudern.
2. Das die CPU Leistung inzwischen nicht mehr nach Mooreschen Gesetz folgt sollte bekannt sein. Man ist hier am Limit angelagt und viel mehr ist nicht. Die neuen CPUs punkten daher nicht mehr nur mit Leistung, sondern durch andere Architektur auch mit anderen Sachen wie z.b. schnellere Speicheranbindung usw. (Man denke an Skylake)
3. Ist in Spielen vor allem die GPU gefragt, da gehst du aber wenig drauf ein. Hinzu kommt die Übertaktbarkeit einzelner GPUs - damit würde sich dein "GZE-Wert" enorm verändern. (Man denke hier an die aktuellen GPUs von NV)
4. Du bildest, wie schon erwähnt, nur das momentane bzw sogar das Geschehen von 2014 ab, aber nicht das zukünftige. Ein System kauft man aber vor allem mit Blick auf die Zukunft. Man will es ja mehrere Jahre in gebrauch haben, also kauft man mit "mehr PS".

Fazit: Deine ganzes Konstrukt ist um 60fps herum aufgebaut und ob die Kombi es schafft oder nicht. Das Problem ist aber jetzt, das die fps auch mal deutlich schwankt. GTA5 ist hier ein tolles Beispiel, andere Games auch. Die Idee des ganzen, also eine komplexere P/L Formel ist aber nicht schlecht - ich find sie sogar ganz gut.

btw auch ein i7 fährt den Turbo sofort auf allen Kernen voll aus, wenn die CPU angesprochen wird (also in Games oder Benches). Nur die 4 Threads bleiben oft unbenutzt, aber das hat stellenweise andere Gründe.
 
Zuletzt bearbeitet:
Juri-Bär schrieb:
Fazit: für Gaming unter 1.000 € ist der günstiigste Quadcore mit der besten GPU die beste Wahl.
Das kann man so nicht stehen lassen. Geht man streng nach dieser Devise vor, wird in vielen Fällen unnötig Geld für die GPU verbrannt (statt wie von dir angemahnt für die CPU).

Das sieht man z.B. an Metro Last Night unter FHD, wo es im Grunde keine Rolle spielt ob neben dem X4 860K nun eine 200 oder 500€ teure GPU werkelt.

metro_last_light_1080.png

Richtiger wäre es, zu sagen, dass es je nach Anforderung sinnvollere und weniger sinnvolle CPU-GPU-Kombinationen gibt. Eine pauschale Aussage wie die deinige, die man den Ratsuchenden in den zahlreichen Kaufberatungsthread mal schnell hinwerfen kann, lässt sich daraus aber leider nicht ableiten.
 
@Peter Shaw:

mein Zitat mit den 1.000 € war wohl ein wenig zu plakativ. So richtig trifft das wohl nur für Spielsysteme bis 750 € Gesamtpreis zu.

Wenn alleine die Grafikkarte 360 € kostet haben ja auch alle schnelleren CPUs (mit Ausnahme des teuersten i7) einen besseren GEZ als der Athlon X4 860K. Aber auch mit dem X4 käme man mit einer solchen Grafikkarte auf mehr als 750 € (Kosten fürs RAM hatte ich ja leider nicht berücksichtigt). Bemerkenswert ist halt nur, dass dann diese ca. 770 €-Lösung mit dem X4 im Durchschnitt wesentlich mehr fps liefert, als eine in preislicher Nähe liegende Lösung mit 200 €-Grafikkarte und i5 oder i7. Nur Auslasten kann der X4 die teure Grafikkarte dann nicht mehr.

Ab etwa einer 200 € Grafikkarte ist aber für den Durchschnittspieler, der auf Full-HD 60 fps mit guten/höchsten Einstellungen zocken will, eine gewisse Sättigungsgrenze erreicht, ab der auch andere Gesichtspunkte bei der CPU-Wahl eine größeres Gewicht bekommen können. Einige Gesichtspunkte, etwa wie schnell bei einem TBS der Spielzug berechnet wird ode ob noch Threads zur Erledigung anderer Aufgaben zur Verfügung stehen, sind in meine Betrachtung nicht eingeflossen.

@cruse:

Ich bin mir im klaren darüber, dass unterschiedliche Spiele auch unterschiedliche Anforderungen an CPU und GPU stellen. Mehr als den Mix von sechs Spielen mit gleichen GPU/CPU-Kombinationen kann ich aber nicht bieten. Viele Ergebnisse, wie sich die CPU auf einer übertakteten GPU auswirkt, was Du z.B. ansprichst, sind daraus sicherlich ableitbar, manchmal auch interpolierbar. Wenn eine CPU z.B. bei einer 30% schnelleren Grafikkarte noch den besseren GEZ-Wert hat, wird sie diesen auch bei einer durch Übertaktung um 5% schnelleren GPU haben.

Einräumen muss ich, dass ich nicht auf die Bedürfnisse der 144Hz-Zocker eingegangen bin. Aber das hat mit Zocken mit begrenztem Budget auch nichts mehr zu tun.

Du bildest, wie schon erwähnt, nur das momentane bzw sogar das Geschehen von 2014 ab, aber nicht das zukünftige. Ein System kauft man aber vor allem mit Blick auf die Zukunft. Man will es ja mehrere Jahre in gebrauch haben, also kauft man mit "mehr PS".
Mir ist nicht so ganz klar, worin Du den Unterschied zwischen 2014 und heute siehst. Gut, es taucht noch kein Braswell oder Skylake in der Liste auf, aber groß sind die Unterschiede zu Haswell sowohl im Preis als auch in der Leistung nicht.

Und mit den "mehr PS" für die Zukunft: ich halte dafür, dass man das kauft, was man gerade braucht. Gerade im PC-Bereich weiss man nicht, was die Zukunft bringt. Wer vor vier Jahren einen Sandy kaufte, hat Glück gehabt: PCIe3.0 ist abwärtskompatibel und bringt kaum mehr als PCIe2.0. Kann gt sein, dass es in zwei Jahren PCIe4.0 gibt, das nicht mehr abwärtskompatibel ist und der schönste Haswell lässt sich dann nicht mehr mit einer aktuellen Grafikkarte paaren.

Um noch einmal den Vergleich Prozessor/Auto zu strapazieren:

Wenn ich für 20.000 € ein Auto mit 150 PS kaufen kann, für 30.000 € eines mit 220 PS oder für 50.000 € eines mit 360 PS: die teureren Autos würde ich doch nur kaufen, wenn ich Strecken fahre, auf die ich die auch ausfahren kann. Wenn ich solche Strecken nicht fahre (oder den Wagen wegen Mitnahme eines Anhängers der Marke 750TI auf 60 km/h oder eines Anhängers der Marke GTX 960 auf 80 km/h beschränkt ist), hätte es zumindest mit Vernunftsgründen nichts zu tun, wenn ich mich für ein 50% oder 150% teureres Auto entscheide.
 
Juri-Bär schrieb:
Kann gt sein, dass es in zwei Jahren PCIe4.0 gibt, das nicht mehr abwärtskompatibel ist und der schönste Haswell lässt sich dann nicht mehr mit einer aktuellen Grafikkarte paaren.

Das passiert nicht so häufig, und bisher gab es immer Übergangslösungen. Die Voodoo 3 z.B. gab es für PCI und AGP, und beim Übergang von AGP auf PCIe haben ATI und Nvidia über zwei Grafikchipgenerationen noch beide Standards unterstützt.

Wegen der hohen Folgekosten eines CPU-Wechsels kaufe ich eine CPU grundsätzlich für einen längeren Zeitraum als eine Grafikkarte.

Geld spart man mit langfristiger Planung und nicht mit sklavisch festzementierten Budgets. Da wird's eben einmal etwas teurer (i5+R9 380), und beim nächsten Mal deutlich billiger, wenn nur eine neue GPU anfällt und kein ganzer PC.
 
Sehe ich auch so. Meine Systeme sind bisher immer so um die 5 Jahre gelaufen, wobei die GPU zwischenzeitlich einmal getauscht wurde. Damit bin ich in Sachen Spiele- und Preis-Leistung immer sehr gut gefahren.
Aktuell hab ich z.B. einen i3 2105 drin, der jetzt ziemlich genau vier Jahre alt ist und eine neue GTX 960. Sollte ich das System in zwei(?) Jahren umrüsten bzw. ein komplett Neues aufbauen, werde ich wahrscheinlich durchaus den bösen i5 oder was Vergleichbares ins Auge fassen, denn das Ding soll ja dann wieder mindestens fünf Jahre laufen. Da fände ich es ungeschickt, einen schwachen Vierkerner wie den X4 oder einen Zweikerner wie den i3 zu wählen.

Dass die tollen Blödmarkt-Konfigs mit i7 xxxxk und 750ti für Spieler in den meisten Fällen wenig Sinn machen, ist eh klar, darüber brauchen wir nicht zu diskutieren.
In der von mir betreuten mITX-FAQ taucht ein i7 übrigens gar nicht auf, lediglich beim teuersten System ist als Alternative zur Hauptempfehlung i5 ein Xeon drin. Da wird als GPU-Alternative in Kürze eine Nano auftauchen, womit das Budget dann eh deutlich im vierstelligen Bereich liegt.
 
Zuletzt bearbeitet:
Juri-Bär schrieb:
Wer vor vier Jahren einen Sandy kaufte, hat Glück gehabt: PCIe3.0 ist abwärtskompatibel und bringt kaum mehr als PCIe2.0. Kann gt sein, dass es in zwei Jahren PCIe4.0 gibt, das nicht mehr abwärtskompatibel ist und der schönste Haswell lässt sich dann nicht mehr mit einer aktuellen Grafikkarte paaren.

Hätte...hätte...Fahrradkette. Schön, daß du wieder nur auf Intel eingehst...

Die Industrie will verkaufen. Das heißt, man versucht so viele Kompatibilitäten aufrecht zu erhalten, wie es nur geht. Wie viele AMD AM3 / AMD3+ Boards kennst du, die nativ PCI-e 3.0 Unterstützen? Ich...keins.

Die einzige PCI-e Inkompatibilität die ich jemals hatte war zu Core 2 Duo Zeiten, wo ich zunächst ein AsRock 775Dual-SATA2 hatte, bei dem der PCI-e x16 elektrisch als x4 angeschlossen war und mit Karten des neuen PCI-e 2.0 Probleme hatte. Da ich eh vom C2D E6400 auf einen C2Q Q9550 umsteigen wollte, mußte ein neues Board her.

Und wenn man überlegt, wie lange es den PCI-e Standard (seit 2003 ca.) gibt, so lange hat AGP (seit 1997) nicht überlebt.

Falls in zwei Jahren meinetwegen der PCI-e 4.0 kommt und dieser nicht abwärtskompatibel ist - dann ist das halt nunmal so. Inkompatibilitäten hast du doch heute im kleinen auch schon. Wie viele Boards mit den aktuellen AMD Chipsätzen können die großen FX-9xxx Prozessoren ohne Probleme nutzen? Gibt bei Intel auch diverse "Sandy Bridge" Boards, die mit "Ivy Bridge" nicht wollen...oder "Haswell" Boards, die "Haswell Refresh" nicht richtig nehmen.

Was "Vernunft" angeht, da darf man nicht groß nach fragen. Dann müßte man jedes aktuelle technische Gerät auf den Prüfstand stellen.

- braucht man einen 50" Fernseher?
- braucht min. alle zwei Jahre ein neues Smartphone?
- braucht man unbedingt die neuen Shirts von Designer abc?
- ...

In unserer Konsumwelt darfst du nach Vernunft nicht fragen. Egal ob es Autos mit mehreren Hundert PS sind oder eine Grafikkarte oder sonstwas.
 
Ltcrusher schrieb:
Schön, daß du wieder nur auf Intel eingehst...
Naja, die AMD-Leute hatten weniger Glück, daher das SandyBridge-Beispiel. FX-Prozessoren sind ja erst seit Vishera eine mögliche Konkurrenz zu i3/i5, leiden aber unter dem alten Chipsatz.

Wenn ich mir anschaue, wievie Lanes die Skylake-Chipsätze jetzt schon mitbringen, kann ich mir aber nicht vorstellen, dass ein künftiger Grafikkartenstandard außer vielleicht noch Sockelkonformität künftig leistungsgerecht von einem H/B/Z/-8X-Board angesprochen werden kann. Insoweit wüde ich i der Hinsicht keinen Cent auf Zukunftsfähigkeit des Sockels 1150 verwetten wollen. Wenn man sich dem anschlöße (ich weiß: hätte, wäre, wenn - aber die Zukunft ist halt nicht kalkulierbar), würde eines der gegenwärtigen Argumente für ein Haswell- oder Broasdwell und vermutlich sogar Skywell--System ersatzlos entfallen. Diese Systeme würden alsbald genauso obsolet werden wie FM2+- oder AM3+-Systeme.
 
Der Phenom II X4 940 war auch ein guter Fang. Irgendwann 2009 für um die 140€ gekauft, zuerst mit einer GTX 275, und dann 3 Jahre später mit einer GTX 660 aufgemotzt.

Mit einem nur wenig billigerern Dualcore hätte ich das ganze System als Schreibmaschine verramschen können, der X4 wurde durch die 660 teilweise doppelt so schnell.
 
Nur mal so am Rand, der PCIe 4.0 Standard ist schon durch und wird wieder abwärtskompatibel sein. Gibts alles nachzulesen im Web. Das als Diskussionsgrundlage kann man sich sparen. Und AMD an sich ist eigentlich schon alleine wegen ihrer hoffnungslos veralteten Plattform kein guter Kauf. Da wird ja noch nicht einmal USB 3.0 nativ unterstützt. Da hilft auch schönrechnen mit irgendeiner GEZ nichts. Dieses ganze Ding hier kann man sich ohnehin sparen, das ist höchstens ne Momentaufnahme und die nichtmal wirklich objektiv. Da werden Spiele auf Hardwarekonfigurationen verglichen die genau das diskutierte Problem veranschaulichen.

Nimm alleine BF4 im Multiplayer auf nen 64 Mann Server dazu und dein GEZ geht komplett den Bach runter, weil's auf dem kleinen Athlon und dem DualCore unspielbar wird, egal welche GPU. Selbiges gilt für GTA5.

Auch die Tatsache das AMD Karten deutlich mehr auf stärkere CPUs angewiesen sind, weil die von IPC und Takt mehr profitieren wie NVIDIA, welcher hingegen von mehr Threads profitiert, wird kein bisschen mit in die Diskussion einbezogen. Das verwäscht den kompletten GEZ bei nur einer Nvidia im Feld.

Der GEZ spiegelt höchstens ein "kann man so machen, geht auch" wieder, als Empfehlung für eine CPU/GPU Kombination taugt er allerdings nicht.
 
Zuletzt bearbeitet:
Inspiriert von einer Untersuchung, die Techspot im Juni diesen Jahres unter dem Titel ""Best $ 70 CPU for Gaming: Athlon X4 860K vs. Pentium G3258" veröffentlicht hat, habe ich mal deren Ergebnisse zusammengetragen.

Getestet wurde mit zwei ähnlich teuren Grafikkarten: der R9-285 und der GTX 960. Die im Titel genannten CPUs wurden @stock eingesetzt sowie auch overclocked.

Das besondere an dem Test von Techspot ist der umfangreiche Testparcour, der nicht weniger als 20 Spiele zählt und meiner Meinung nach einen wirklich repräsentativen Ausschnitt aus der Gaming-Welt beleuchtet.

Interessant ist schon, wie unterschiedlich die gleichpreisigen Grafikkarten agieren. Die R9-285 hat ihre Stärken, namentlich in Crisis 3, Arma 3 und Bioshck Infinite, muss sich aber insgesamt recht klar der GTX 960 geschlagen geben.

Noch interessanter finde ich aber, dass der x4 860k - dem ich mit günstigen Grafikkarten bis 300 € einen guten GEZ bestätigen konnte - der Herausforderung durch gleichteuere oder gar günstigere Intel-Prozessoren nicht gewachsen sieht.

Den besten GEZ hat der 50 € teure Pentium 3250, der im Durchschnitt aller 20 Spiele sogar eine höhere fps-Rate mitbringt, als ein übertakteter x4. Die meisten Frames liefert ein übertakteter 3258, dessen GEZ auch noch ziemlich gut ist.

Zu der anliegenden Tabelle ein paar Anmerkungen:

Ich habe aus dem techspot-Test 10 verschiedene Komplett-Computer mit Betriebssystem extrahiert, deren Preise sehr eng zusammenliegen (505 bis 580 €). Für die OC-Varianten habe ich jeweils einen preiswerten Kühler vorausgesetzt, der Rest muss mit dem boxed auskommen. Beim oc-Pentium habe ich zudem ein Z-Board angesetzt, weil die 4,4 Ghz meist mit einem h-Board nicht stabil zu erreichen sind. Ansonsten habe ich jeweils das günstigste µATX-Board genommen, das über interne USB3-Anschlüsse verfügt. Dazu dann Maus, Tastatur, DVD-Brenner, SSHD, Netzteil und Gehäuse alles in sehr preiswert.

Obwohl Techspot nur zwei CPUs getestet hat, habe ich in der Aufstellung zwei weitere hinzugenommen.

Wer den 3,2 Ghz Pentium 3258 nicht übertaktet, hat im Prinzip den 3,2 Ghz Pentium 3250. Die non-oc-Ergebnisse des 3258 habe ich 1:1 für den 3250 übernommen.

Dann habe ich noch für die Leute, die nicht übertakten wollen, einen 3,5 Ghz Pentium hinzugenommen. Die in meiner Tabelle dafür aufgeführten Werte sind nicht gemessen, sondern interpoliert (Wert des 3,2 Ghz Pentium + 0,3/1,2Ghz der Mehrleistung des 4,4 Ghz Pentiums). Wenn meine Interpolaton stimmt hat der 3460 für 71 € auch noch eine sehr guten GEZ.

Um leidigen Diskussionen vorzubeugen, auf einem Dualcore würden nicht alle Spiele starten: inzwischen sind eigentliche alle Spiele, die ursprünglich eine technisch völlig unsinnige Abfrage nach der Anzahl der Cores vornehmen, gepatcht. Eines der Spiele, die vermeintlich auf einem Dualcore nicht starten, befindet sich mit "Dragon Age: Inquisition" im Testparcour.

Anliegend meine Aufstellung.
 

Anhänge

  • gez2.pdf
    139,5 KB · Aufrufe: 411
Zurück
Oben