News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

FGA schrieb:
selber schuld wer mit mehr wie 1080p gaming anfängt. wo soll das aufhören? bei monitoren die alle 4 wände abdecken :D klar braucht man dafür rechenleistung.
Hab auch mal so gedacht wie du und mir nur 1080p Monitore gekauft und dachte FullHD reicht doch.
Tjo, dann kam ein verlockendes angebot für meinen ersten WQHD Monitor, und glaub mir man sieht den Unterschied deutlich. Seitdem nurnoch WQHD.

Aber Unterschiede zwischen WQHD und 4K fallen mir kaum auf.
Wenn ich Bilder anschaue wo man das Bild per Regler nach links und rechts schieben kann um den Unterschied zu sehen muss ich ehrlich zugeben der Unterschied ist ( für mich) minimal.
Manchmal kaum sichtbar. Darauf verzicht ich gern.

K.A. Warum alle so auf 4K Gaming stehen.
 
Aktuelle bzw zukünftige Preise , die wahrscheinlich abnormale Leistungsaufnahme und die Aussicht auf kaum Verfügbarkeit wegen Miner scheisse und asoziale, die solche Karten aufkaufen um sie teurer auf Ebay zu resellen, werden dazu führen das Cloud Gaming den boom erleben wird in den nächsten Jahren, so meine Prognose. Nagelt mich ruhig drauf fest xD.
 
So viel Stromverbrauch für so viel Leistung, nur damit sie Entwickler sich bei ihren Portierungen nicht mehr anstrengen müssen und PC Gamer dafür mittelprächtige Grafik auf ihren tausende Euro kostenden Geräten 'genießen' dürfen.:kotz:
 
W0lfenstein schrieb:
Aber Unterschiede zwischen WQHD und 4K fallen mir kaum auf.

Kommt ganz auf die Displaygröße an. Bei 24 Zoll ist das z.B. relativ egal. Aber bei 32 Zoll ist das ein deutlicher Unterschied.

W0lfenstein schrieb:
Wenn ich Bilder anschaue wo man das Bild per Regler nach links und rechts schieben kann um den Unterschied zu sehen muss ich ehrlich zugeben der Unterschied ist ( für mich) minimal.

Macht auch keinen sinn, wenn man das auf einem Bildschirm macht, da sich durch das Bild ja nicht die physische Pixeldichte des Displays ändert. Ich habe bei mir 2x32 Zoll. Einen UHD und einen WQHD und der Unterschied ist auch bei größerem Sichtabstand zu sehen, wenn in Spielen selbst auch nicht so stark. Aber bei größeren Displays macht UHD durchaus Sinn.

bikerider schrieb:
Ähnlich wie Hubraum beim Auto.

Wobei man beim Auto Hubraum auch durch Ladedruck ersetzen kann :) Spaßig ist aber sowieso Hubraum + Aufladung.
 
bikerider schrieb:
Finde ich gut, denn ordentlich Cache ist durch nichts zu ersetzen - außer durch noch mehr Cache.
"Ordentlich Cache" ist kein Ersatz für eine "ordentliche Bandbreite" und kaschiert nur diese Schwäche, egal wie viel du davon auf die Karte drauf packst. Eine SSHD ist und bleibt "nur" eine SSHD und selbst viel Cache, machen draus keine SSD.

Es könnte durchaus sein, dass Nvidia sich mit dem Cache flexibler aufstellen will was die Speicherausstattung der Karten angeht, viel Cache sollte aber nie als Ausrede für einen Flaschenhals bei der VRAM Anbindung herhalten müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigeagle
SavageSkull schrieb:
Ein Monitor mit 2560 x 1440 mit 100FPS zu befeuern ist auch kein allzu großes Problem mehr.
Nur wenn man Raytracing ausschaltet. Wenn man mit Raytracing spielen will kommt man an 1080p nicht vorbei. Man kann natürlich hoffen das sich das in Zukunft ändern wird.
 
Shoryuken94 schrieb:
Wobei man beim Auto Hubraum auch durch Ladedruck ersetzen kann :) Spaßig ist aber sowieso Hubraum + Aufladung.

Hubraum ist durch nichts zu ersetzen, es sei denn durch mehr :-)

btt.
Höher Stromverbrauch, exorbitanter Preis.
so sehe ich die "Grüne Zukunft" auf uns zurollen.
Mal sehen was die "Roten" bringen aber ich mache mir da keine Hoffnungen...
Bleiben nur noch die "Blau/Weißen" und auch hier bin ich etwas vorsichtig.

Dünnes Eis, ganz dünnes Eis für die alle was meine Kauflaune betrifft.
 
  • Gefällt mir
Reaktionen: bikerider
Slayher666 schrieb:
Nur wenn man Raytracing ausschaltet. Wenn man mit Raytracing spielen will kommt man an 1080p nicht vorbei.
Control läuft mit meinem Monster mit Raytracing UND DLSS super auf WQHD. Allerdings ist die 3090 auch keine Alltagskarte mehr.
 
xexex schrieb:
"Ordentlich Cache" ist kein Ersatz für eine "ordentliche Bandbreite" und kaschiert nur diese Schwäche, egal wie viel du davon auf die Karte drauf packst.
Da muss man an der Stelle aber mal sehr klar schreiben: Falscher Ansatz!

Klar, man kann sagen, dass Caches eine Schwäche bei der Bandbreite ersetzen, aber das ist, wie geschrieben, der falsche Ansatz, weil man hier davon ausgeht, dass der Cache einen Idealzustand ersetzen soll, das ist aber auf allen Ebenen falsch!

Ideal für die Rechenleistung, egal von GPUs oder CPUs sowie NPUs wäre es, wenn alle Daten bereits vollständig in den Registern und Caches vorgehalten werden könnten. Daten sind schneller verfügbar, es kostet wesentlich weniger Energie die Daten aus den Caches in die Rechenwerke zu schieben und die Platinen könnten einfacher werden usw.

Da aber entsprechende Caches in der größe teuer sind und man riesen Chips hätte, ersetzt man Caches eben durch Arbeitsspeicher und muss je nach Leistungsfähigkeit eben ein breites SI mit entsprechenden Durchsatz als Kompensation für den fehlenden Cache in den CPUs einbauen.

Wir nähern uns also mit den großen Caches eher dem Idealzustand, weil wir weniger Energie benötigen um die Daten vorzuhalten.
 
  • Gefällt mir
Reaktionen: Colindo
Shoryuken94 schrieb:
Kommt ganz auf die Displaygröße an. Bei 24 Zoll ist das z.B. relativ egal. Aber bei 32 Zoll ist das ein deutlicher Unterschied.
Hab 32". Sehe trotzdem kaum Unterschied
 
Shoryuken94 schrieb:
Ich glaube bei Grafikkarten Themen sollte hier im Artikel einfach nichts mehr zum Thema Leistungsaufnahme gesagt werden. Endet ansonsten immer darin, dass sich mindestens 2/3 aller Kommentare darauf bezieht.

(...)
Und ich nehme an, dich interessiert der Verbrauch nicht, richtig?
Dennoch hinkt die Logik. 2/3 der Leser zeigen Interesse, weil es dir aber egal ist, sollte davon gar nicht mehr geredet werden?
Weil du meinst, Leistung, Lautstärke, wasauchimmer ist wichtiger?
Beweisen dir die 2/3 der Kommentare nicht, dass die Mehrheit andere Prioritäten hat?
 
DevPandi schrieb:
Wir nähern uns also mit den großen Caches eher dem Idealzustand, weil wir weniger Energie benötigen um die Daten vorzuhalten.
Bis eben zu dem Punkt, an dem der Cache zu klein für die gewünschte Aufgabe ist. Also ist es (wie immer) eine Frage der Umsetzung. Ich denke auf @xexex wollte am ehesten auf die Probleme bei der 6500 XT hinaus, bei der der Cache deutlich zu klein ist. Bei der 6900 XT hingegen sind alle glücklich, außer sie wollen 8K-Gaming oder wissenschaftliche Berechnungen.
 
@SV3N entweder fehlt da eine Küche, oder 2 'n' und ein 'r' zuviel :)
Verglichen mit den maximal 6 MB L2-Cache, die der Ampere-Architektur zur Verfügung stand, wird in der Gerüchte über eine dem Infinity Cache von AMD ähnliche Lösung spekuliert.
 
Ich hatte jetzt ca. jeweils für ein Jahr einen 27" WQHD und einen 32" 4K Monitor. Auch, wenn man in 4K definitiv ein etwas besseres Bild hat als mit WQHD, so ist mir an einem normalen Schreibtisch mit 80cm Tiefe der 32 Zöller zu groß.

Daher bleibe ich definitiv solange bei 27" WQHD bis es entweder keine Monitore dieser Art mehr geben wird oder aber 4K auf 27" Zoll der Standard ist (habe ich mir noch nie angesehen, ob das wirklich so viel besser iaussieht als 27" WQHD?), bei dem man mit einer Mittelklasse GPU alles auf 144Hz spielen kann, so wie derzeit mit Full HD.

Wäre mir der 27er zu groß, würde ich eh bei Full HD bleiben, das reicht bei der Größe ja auch total aus.

Conclusio: Auflösung und Bildschirmdiagonale gehören vernünftig miteinander in Relation gesetzt.
 
DevPandi schrieb:
Wir nähern uns also mit den großen Caches eher dem Idealzustand, weil wir weniger Energie benötigen um die Daten vorzuhalten.
Es gibt bereits heute mit HBM2 eine Möglichkeit eine viel höhere Speicherbandbreite bereitzustellen, als es mit dem Infinity Cache der Fall ist. Da HBM aber viel zu teuer für die Consumer GPUs zu sein scheint, greift man auf "billigere" Lösungen und das ist GDDR. Was AMD jetzt gemacht hat, ist den 256bit Flaschenhals mit einem Cache zu "retuschieren", das klappt manchmal gut und manchmal halt weniger gut, ein Cache kann niemals einen schnellen VRAM ersetzen.

Der "Idealzustand" ist ein möglichst großer Speicher, bei dem man auf den gesamten Inhalt möglichst schnell zugreifen kann, die Cachelösung ist wie die von mir genannten SSHD Platten, in manchem Fällen verhielten sie sich wie echte SSDs, in anderen Fällen eben nicht. Mit mehr Cache löst man das Problem nur bedingt, da müsste man schon den gesamten VRAM durch den "Cache" ersetzen, womit wir wieder beim Anfang wären, das Ziel kann nur eine möglichst schnelle VRAM Anbindung sein und nicht kleine Zwischenspeicher.

Ich habe kein Problem damit, wenn auch Nvidia es nun mit einem Cache versucht, es darf nur nicht auf Kosten der eigentlichen VRAM Anbindung laufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Colindo schrieb:
Bis eben zu dem Punkt, an dem der Cache zu klein für die gewünschte Aufgabe ist.
Das ist ja das Problem - und er hat es nicht verstanden, habe seine Antwort gelesen - mit Arbeitsspeicher, egal welcher, versucht man eher kleine Caches zu kompensieren, weil
die sehr teuer sind und benötigt dafür entsprechend Ressourcen an anderer Stelle.

Es ist halt hier eine gewisse Wechselbeziehung: Caches benötigen viel Platz, aber wenig Energie und sind sehr schnell - gerade was Latenzen angeht.

Arbeitsspeicher ist ein Kompromiss, es benötig für viel Speicher weniger Platz als der Cache, also weniger Transistoren, dafür steigt die Latenz deutlich an und man benötigt mehr Energie, vor allem wenn man viel Bandbreite benötigt.

Die Aussage von ihm will Caches als etwas schlechtes Darstellen und das ist eben auf allen Eben falsch, egal wie man es dreht und wendet.

Die Caches sollen an der Stelle eher helfen und er möglichen solche Chips erst bei sinnvollen verbräuchen.
 
  • Gefällt mir
Reaktionen: Colindo
Schinken42 schrieb:
Und ich nehme an, dich interessiert der Verbrauch nicht, richtig?

Doch, aber in Abhängigkeit zur Leistung und nicht als alleinstehende Zahl.

Schinken42 schrieb:
Dennoch hinkt die Logik. 2/3 der Leser zeigen Interesse, weil es dir aber egal ist, sollte davon gar nicht mehr geredet werden?

Habe ich nirgendwo gesagt. Wenn es den Leuten so wichtig ist, können Sie das doch gerne im Forum ausdiskutieren. Dafür muss man nicht jeden Artikel vollspammen, der auch nur Ansatzweise mit Hardware zu tun hat. Wenn man die selben drei Kommentare (oftmals nicht mal themenbezogen) liest, dann macht es die gesamte Seite Überflüssig. Die meisten dürften Hier wegen Hardwarethemen sein und nicht um jeden Tag aufs neue über den Stromverbrauch nicht angekündigter GPUs zu diskutieren.

Genauso wie vor einigen Monaten jeder GPU Artikel damit zugespammt wurde, dass man die karten angeblich nicht kaufen kann und wie teuer sie sind. Sowas macht eine Seite auf Dauer kaputt. Die meisten die sich ernsthaft für Hardwarethemen interessieren, finden kaum noch einen wirklichen Wert in der Seite, wenn es fast nur um das eine Thema geht.

Schinken42 schrieb:
Beweisen dir die 2/3 der Kommentare nicht, dass die Mehrheit andere Prioritäten hat?

Wie gesagt, kann jeder als sein super wichtiges Thema sehen. Deswegen muss man es nicht unter jede News zum Thema GPU schreiben. Wenn es dir so wichtig ist, mach doch ein Sammelthread zu dem Thema auf, wo du das mit allen anderen diskutieren kannst.

W0lfenstein schrieb:
Hab 32". Sehe trotzdem kaum Unterschied

Dann sitzt du entweder sehr weit davon entfernt oder hast eine sehr unterdurchschnittliche Sehschärfe. Letzteres kann man mit Brillen und Kontaktlinsen sehr leicht in den Griff bekommen.
 
Shoryuken94 schrieb:
(...)



Wie gesagt, kann jeder als sein super wichtiges Thema sehen. Deswegen muss man es nicht unter jede News zum Thema GPU schreiben. Wenn es dir so wichtig ist, mach doch ein Sammelthread zu dem Thema auf, wo du das mit allen anderen diskutieren kannst.



(...)
Und nochmal: Wenn 2/3 es wichtig genug finden unter jedem Artikel in dem es auch um Verbrauch geht darüber zu sprechen, wer bist du es ihnen zu verbieten?
Dich nervt es, hab ich verstanden. Du findest, das macht ein Forum kaputt.
Du meinst auch zu wissen, was "Hardwareinteressierte" sind, das Foren nur für diese sind und sie nicht immer wieder über den Verbrauch reden wollen.
Das wollen dann nur die was? "Hardwareuninteressierten"?

Dein ganzer Pseudoobjektiver Text läuft nur darauf hinaus: Du findest das Thema nicht so wichtig und bist von der Präsenz genervt.
Daraus ein Recht abzuleiten, Themen bestimmen zu können ist lächerlich.

Mich persönlich interessiert der Verbrauch übrigens auch nicht besonders, zumindest solange die Kühlung alles relativ leise schafft und ich nicht alle halbe Jahr mein NT wechseln muss.
 
Schinken42 schrieb:
Und nochmal: Wenn 2/3 es wichtig genug finden unter jedem Artikel in dem es auch um Verbrauch geht darüber zu sprechen, wer bist du es ihnen zu verbieten?

Wo verbiete ich hier denn etwas? Nirgendwo. Es ist aber durchaus mein gutes Recht mich auch dazu zu äußern.

Schinken42 schrieb:
das Foren nur für diese sind und sie nicht immer wieder über den Verbrauch reden wollen.
Das wollen dann nur die was? "Hardwareuninteressierten"?

Foren sind für alle etwas. Man sollte nur wissen, wie man sie nutzt. Nicht umsonst gibt es verschiedene Themenbereiche, in denen man alles diskutieren kann. Wenn man Anfängt jeden Beitrag damit zuzusapmmen, hat das nicht mehr viel mit einem Forum zu tun. Das ist einfach nur Gemecker. Aber das ist des Deutschen liebstes Hobby.

Wenn man sich so sehr auf einen Verbrauch von Hardware versteift, die nicht mal angekündigt wurde, obwohl es hauptsächlich um andere Themen geht, dann kann man in der tat nicht sonderlich interessiert daran sein. Zumindest scheint das Interesse immer und immer wieder das gleiche zu schreiben ja größer zu sein bei vielen.

Schinken42 schrieb:
Du findest das Thema nicht so wichtig und bist von der Präsenz genervt.

Und noch mal, ob ich das Thema wichtig finde oder nicht, hat damit relativ wenig zu tun. Es gibt wichtigere Themen auf der Welt und es gibt banalere. Ich davon genervt, dass man jegliche interessante Diskussion dadurch erstickt. Es geht den Leuten nicht um den Meinungs- oder Wissensaustausch. Es geht nur darum sich zu beschweren. Dagegen habe ich nichts. Kann man gerne an geeigneter Stelle machen. Aber dafür muss man nicht jeden Artikel missbrauchen, in den man das halbwegs reinquetschen kann.

Schinken42 schrieb:
Dein ganzer Pseudoobjektiver Text läuft nur darauf hinaus: Du findest das Thema nicht so wichtig und bist von der Präsenz genervt.
Daraus ein Recht abzuleiten, Themen bestimmen zu können ist lächerlich.

So langsam merke ich, dass das mit dem Papagei nicht weit hergeholt ist :) Auch wenn ich das jetzt schon wieder beantworte, ich bin nicht von dem Thema nicht per se genervt, sondern von der Tatsache, dass man einen großen Teil interessanter Themen mit dem typischen deutschen Gemecker versieht. Es geht nicht darum, dass es viele interessant finden oder darüber diskutieren wollen. Es möchte sich nur möglichst viele Leute aufregen. Und wie gesagt, das ist völlig legitim, wenn man das im geeigneten Rahmen und Umfeld macht. Das muss man aber nicht bei jedem Thema zu neuen GPUs wiederholen.

Die Seiten werden auch bei jedem nächsten Post die angebliche Leistungsaufnahme mit in den Artikel nehmen. Damit schafft man schließlich viel Traffic. Ist zwar am Ende kein Mehrwert für niemanden, aber das ist ja auch von vielen nicht das Ziel.
 
  • Gefällt mir
Reaktionen: WeltalsWille
Zurück
Oben