• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Ghost Recon Breakpoint: Schon die HD-Auflösung will Leistung, UHD kaum mehr

@SKu danke, sind auch alle Titel die ich nicht auf 60 Fps kriege über mittleren Einstellungen (GRW,Origins,Odyssey), mir kommt’s so vor als würde die Engine bei höheren Auflösungen die 1080 Ti mehr wegfrühstücken als vergleichbare Titel :/

Bin ja immer wieder erstaunt was meine unter 300€ PS4 Pro herzaubert, aktuell Shadow of the Colossus zwar nativ nur 1440p hochskaliert zu 2160p bei nur 30 Fps aber flüssig und absolut eine Pracht.

Da wird mir immer klar wieviel Potential verschenkt wird am PC massig Rohleistung wegfeuern für halbwegs akzeptable Ports.

Zurück zum Spiel, habe Wildlands ausgiebig Solo gespielt (MP/Coop unbrauchbar ohne vernünftige Mitspieler) sogar im Permadeath Modus abgesehen von dem Narco Road Fehltritt gefällt mir das Setting immernoch.
Allerdings finde ich hätte man sich mehr in eine Richtung entscheiden sollen Sim–Shooter, über die Third Person Perspektive könnte man jetzt auch noch streiten.
Doch wenn ich Raids und Loot schon höre fasse ich mir an den Kopf, im nächsten Teil gibts dann nur noch Drohnen um die USK Einstufung zu drücken.

Ich hoffe mal Red Storm liefert ab, allein um der alten Zeiten Willen schaue ich mal rein zur Beta haben ja leider die Server nicht gewollt.
 
  • Gefällt mir
Reaktionen: andi120
irgendwie passt doch der Text mit der Tabelle nicht überein ?
Also in der Spalte ULTRA sind doch im Text andere HW angegeben ...

echt heavy ... allerdings ist doch auch mal toll wieder ein Shooter al à Crysis 1 zu bekommen xD

but can it run GRB ? ..... or is it the Breakpoint of your System ? xD
 
HisN schrieb:
Wer Wildlands gespielt hat, wird die Performance in Breakpoint wiedererkennen.
Das wird sich nicht viel nehmen. Braucht man eventuell die lustigen Systemanforderungen gar nicht, die sowieso meistens weit jenseits von dem liegen was man selbst gerne hätte^^

Zumindest meine persönliche Erfahrung widerspricht da.
i5-3570k @ 4.3GHz und GTX 970 haben in Wildlands Krach gemacht aber hab wenigstens gute FPS dafür bekommen. Breakpoint waren in der Technical Beta sagenhafte 30FPS in niedrigsten Einstellungen möglich und das sah - neben der unzähligen noch vorhandenen Anzeigefehler - einfach grottig aus und hat keinen Spaß gemacht. Zumal das auch keine "cineastischen" 30FPS waren sondern richtig ruckelige.
 
dflt schrieb:
Zumal das auch keine "cineastischen" 30FPS waren sondern richtig ruckelige.

auf pc´s kommt es halt hin und wieder zu wahrnehmbaren "rucklern" die nichts mit fps zu tun haben....stichwort input lag. darüber wird ungern geredet, da die konsolen hier wirklich schlecht sind.

https://winfuture.de/special/google-stadia/

"Google wird hart daran arbeiten diese zu verbessern, sodass die Vorteile physischer Gaming-Hardware in Zukunft immer geringer werden sollten. Offizielle Angaben gibt es jedoch noch nicht. In ersten Beta-Tests von Digital Foundry wird über Latenzen von 166 bis 188 Millisekunden bei einer 1080p-Auflösung gesprochen. Unter Anrechnung des Input-Lags von Displays und Controllern würde man hier auf Augenhöhe mit der Xbox One X liegen. "

wenn man auf konsolen mit 166 ms input lag dauerhaft arbeitet, reichen auch 6fps aus, damit der user es nicht merkt...die meisten user würden nicht mal merken, wenn sie 6x10 bilder als 60fps verkauft bekommen würden :D

viele billige server betreiber tragen dem z.b. rechnung, indem sie nur mit 20fps intern rechnen lassen. nur wirklich gute shooter games bieten ja überhaupt server mit 120fps und mehr an.

trotzdem redet man ungern darüber, man kann dann halt deutlich weniger schnelle hardware verkaufen. :smokin:

mfg
 
Na dann bin ich mal gespannt. Bei der 2-ten "technical preview" lief das Spiel unter aller S... in 4K auf einer 2080TI. (40FPS)
 
Sehr schlecht optimiert.
Ghost Recon Wildlands verbraucht auch viel zu viel Leistung.
Nicht mal Metro Exodus oder Tomb Raider verbrauchen so viel.
 
  • Gefällt mir
Reaktionen: Zitterrochen und killingspree
BxBender schrieb:
Schon komisch, wenn für den 4fachen Flächeninhalt nur bedingtermaßen eine bessere Grafikkarte benötigt werden sollte.
Versteh ich nicht, was hat die Größe der Fläche mit der Grafikkarte zu tun?
Soweit ich das kenne ist dein Sichtfeld dadurch doch nicht weiter, du siehst ja nicht 100% der Karte vor dir wenn du am Rand stehst. Zumal das eh eher für die CPU wichtig ist.

HisN schrieb:
Braucht man eventuell die lustigen Systemanforderungen gar nicht, die sowieso meistens weit jenseits von dem liegen was man selbst gerne hätte^^

Das ist wie mit dem Festplattenspeicher. Ich weiß noch wie sich beschwert wurde warum F1 2019 80GB brauch und im Endeffekt waren es nach dem installieren 28GB. Den Systemvorraussetzungen kann man nie glauben schenken.

vanomas schrieb:
Sehr schlecht optimiert.
Ghost Recon Wildlands verbraucht auch viel zu viel Leistung.

Das stimmt auch, das Spiel läuft wie Grütze. Völlig unsinnige FPS Drops. Hatte auch zu kämpfen überall 60 FPS zu halten mit meiner 1080Ti und dem 2600. (WQHD) Zumal das Spiel immer öfter abgestürzt ist weil meine 16GB Ram voll waren.
 
Zuletzt bearbeitet:
Bei Wildlands muss man tatsächlich Regler bedienen können. Wenn man auf die Idee kommt alles nach Rechts zu drehen, ist vorbei. Selbst Jahre nach Release mit deutlich besserer Hardware ;)
Das wird aller Voraussicht nach bei Breakpoint nicht anders sein. Eher noch schlimmer. Man sollte also nicht zu viel erwarten. Ist auch eher ein Game, wo man besser dran ist, wenn man mind. ein halbes Jahr besser ein ganzes Jahr wartet, bevor man es kauft. Wildlands lief dann auch deutlich besser als zu Release.

Soweit mir bekannt steht das übrigens immer noch unter NDA?
 
SKu schrieb:
Bei Odyssey war bei AMD ein 2700X und bei Intel der 8700K Pflicht, wenn man mindestens die 60fps halten wollte.
Ist das so? Bei welcher Auflösung? Ich hatte zumindest keine Probleme auf Ultra mit 120+ fps @wqhd zu spielen...?

Das normale Wildlands war auch wunderbar spielbar mit alles auf Ultra... (Auch mit 1070 und 1600x) Keine Ahnung wovon ihr immer redet.
 
  • Gefällt mir
Reaktionen: R00tMaster
Launebub schrieb:
Ich muss wohl meinen i5-3470 so langsam in Rente schicken, weil die Entwickler keine Lust mehr haben ordentlich zu optimieren. Sind ja quasi alles Konsolenports geworden :/

Och du ärmster musst wirklich für ein Spiel im Jahre 2019 eine Mittelklasse CPU aus dem Jahre 2013 in Rente schicken? Immer diese bösen Entwickler, sowas soll gefälligst noch auf einer AMD XP CPU laufen ...pfff
 
  • Gefällt mir
Reaktionen: Atzepeng51
Habe auch die Beta gespielt. Performance müßte 1:1 Wildlands sein. Habe keinen Unterschied bemerkt. Es sah allerdings etwas besser aus.
 
HisN schrieb:
Im absoluten CPU-Limit bringt die Steigerung der Auflösung nur mehr Last auf die Graka. Sieht man gut, wenn man schon in FHD im CPU-Limit ist.
Das klingt komisch. Im absoluten CPU-Limit kann natürlich nicht mehr von der CPU kommen ;)

Man muss dann schon sehen, in wie fern die CPU mehr belastet wird, wenn diese nicht im Limit ist, wenn man die Auflösung hochstellt.
 
eLdroZe schrieb:
Ist das so? Bei welcher Auflösung? Ich hatte zumindest keine Probleme auf Ultra mit 120+ fps @wqhd zu spielen...?

Das normale Wildlands war auch wunderbar spielbar mit alles auf Ultra... (Auch mit 1070 und 1600x) Keine Ahnung wovon ihr immer redet.

Deine Behauptungen widersprechen jedem Review und mit einer 2080 schafft man keine 120fps mit Ultra-Settings in WQHD. Die 2080 schafft nicht einmal konstante 60fps mit allen Settings auf Anschlag in der Auflösung in dem Spiel und jetzt kommst du und behauptest einfach mal, dass die GPU ohne Probleme 100% mehr Leistung abliefert. Das ist nicht wirklich glaubwürdig.

https://www.computerbase.de/2018-10...ts-in-odyssey-auf-einer-rtx-2080-ti-1920-1080

Ein 2700X ist auch nicht auf einmal durch Zauberei ein paar Klassen schneller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Atzepeng51, ZeroStrat, Geckoo und eine weitere Person
eLdroZe schrieb:
Ultra mit 120+ fps wqhd
Ach komm das glaubst du selbst nicht

@Phear naja UWQHD ohne AA mit mittleren Details für flüssiges spielen mit einer 1080Ti halte ich für schlecht optimiert, TR und Exodus laufen mit deutlich höheren Einstellungen deutlich besser.
Bei Origins und Odyssey das selbe einzig die Auflösung reduzieren bringt spürbar mehr Fps.
 
Zuletzt bearbeitet:
Launebub schrieb:
Ich muss wohl meinen i5-3470 so langsam in Rente schicken, weil die Entwickler keine Lust mehr haben ordentlich zu optimieren. Sind ja quasi alles Konsolenports geworden :/

Das mit den unoptimierten Titeln hört man jetzt aber auch schon ewig und ist wahrlich keine neue Entwicklung. Nicht mal eine aus diesem Jahrtausend würde ich sagen.
In diesem Fall reden wir zudem von einer mehr als 7 Jahre alten Mittelklasse-CPU. Detailgrad und Komplexität der Geometrie sind in den letzten Jahren dann doch noch merklich angewachsen in vielen Fällen. Klar, dass dann auch irgendwann mal eine schnellere CPU fällig wird.
 
Auf den ersten Blick wirkt Breakpoints auf mich aber auch deutlich schicker als bspw. Control (RT-off) und das braucht ja auch schon ne 5700 XT für 60 Fps in FHD@Max.
 
Conqi schrieb:
Das mit den unoptimierten Titeln hört man jetzt aber auch schon ewig und ist wahrlich keine neue Entwicklung. Nicht mal eine aus diesem Jahrtausend würde ich sagen.

Das mit dem unoptimiert hört man immer von Leuten auf deren Hardware es nicht mehr läuft.
Wenn man das überspitzt, dann wäre es optimiert, wenn es auf einem 386SX16 und einer ISA-Graka mit 4K und 165FPS laufen würde.
Da niemand von uns bei Ubi im Büro sitzt und Quellcode-Einsicht hat, also tatsächlich objektiv WISSEN könnte wie gut oder schlecht etwas "optimiert" ist, denke ich mir meinen Teil zu dem Argument immer dazu: MIMIMIMI
 
  • Gefällt mir
Reaktionen: sebi100, BorstiNumberOne, LukS und 2 andere
Zurück
Oben