Notiz Nvidia Gaming Ampere: GeForce Special Event für den 1. September angekündigt

Faust2011 schrieb:
Ich hoffe, dass es wirklich um einen Launch der Ampere Chips geht... und nicht um eine Weiterentwicklung des Cloud-Streamings, also von Geforce Now.

Das wäre so böse, dass es eigentlich schon wieder grandios wäre.
 
  • Gefällt mir
Reaktionen: Bccc1, Palatas, jonjoe und 2 andere
PS828 schrieb:
Das flüstern aus der Zukunft prophezeit für Hopper und RDNA3 ein Chipletdesign.
jep sowas habe ich auch flüstern gehört und sowas wie co Prozessor...aber mal schauen bin leider kein Pc Nostradamus ;)
 
  • Gefällt mir
Reaktionen: PS828
Bin gespannt was Mopedjacke zu sagen hat.
 
  • Gefällt mir
Reaktionen: fox40phil, IBMlover und DannyA4
DennisK. schrieb:
Gerade einen Vertrag zur Abtretung meiner Leber unterschrieben. Bin bereit Jensen!
Mensch, was machst du denn für Sachen?!
Jeder weißt doch, das man eine seiner Nieren für eine neue Nvidia Karte verkauft. Davon hast du immerhin 2.

Ich hoffe wenigstens, das du dich nicht übers Ohr hast hauen lassen und in deinem Vertrag steht wenigstens die 3090 und nicht wie bei manchen nur eine mickrige 3070. :daumen:
 
calNixo schrieb:
Ich bin gespannt. Mein Geldbeutel auch.

Meiner auch :D Aber billig wird es wohl nicht.

johnieboy schrieb:
Und hoffe das AMD nicht bis November braucht bis sie darauf antworten und Nvidia 2 Monate das Feld ohne Gegenwehr überlässt.
Gibt ne Menge Leute die Aufrüsten wollen.

2 Monate wären für AMD Verhältnisse sogar richtig Klasse. Die letzten Jahre hing man auch gerne mal ein Jahr zurück, bis man was als Antwort gesehen hat.

Bei AMD ist eher die frage, ob man dann in 2 Monaten wirklich ein fertiges Produkt hat, oder nur eine Antwort auf dem Papier. Und wie sieht es mit Custommodellen aus. Bei Ampere soll es ja direkt zum Start soweit sein. Hoffe nicht, dass es bei AMD wieder bis 2021 dauert, bis es vernünftige Versionen gibt

Marcel55 schrieb:
Die schreiben Ampere soll der größte Durchbruch des PC-Gaming seit 1999 sein?

Größer Durchbruch ≠ größter Leistungssprung. Unified Shader waren ein riesen Durchbruch. Raytracing ist ein riesen Durchbruch und auch DLSS hat das Potential für einen riesen Durchbruch.

Wollte Nvidia unbedingt, hätten Sie auch einen 800mm² nur mit Shadern bauen können, aber das ist dann höchstens ein Durchbruch beim Thema Stromverbrauch, aber in negativer Richtung.

Ich erwarte hier eher, dass die Themen die mit Turing angefangen wurden Früchte tragen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drmaniac, Toni_himbeere und .Sentinel.
Mr. Rift schrieb:
Jeder weißt doch, das man eine seiner Nieren für eine neue Nvidia Karte verkauft. Davon hast du immerhin 2.
wie schon geschrieben von jemanden ist die erste wascheinlich für die Letzte GPU draufgegangen :D
 
  • Gefällt mir
Reaktionen: Mr. Rift und DannyA4
Shoryuken94 schrieb:
aber das ist dann höchstens ein Durchbruch beim Thema Stromverbrauch, aber in negativer Richtung.
Ich befürchte den werden wir bei Ampere auch erleben :D
Ampere zieht viele Ampere. Da braucht es nicht mal einen Spitznamen ala Thermi, den liefert NVidia von sich aus.
 
  • Gefällt mir
Reaktionen: fox40phil und Astra-G
wolve666 schrieb:
Wie sie alle Nvidia das geld in den Rachen stopfen, echt verrückt. Selbst schuld, das Nvidia immer mehr geld verlangen kann, die Lemminge kaufen jeden Müll von denen.

Kann doch jeder selbst entscheiden, für was er Geld ausgibt und wo das persönliche Budget liegt. Man muss sich halt nur seiner Preisklasse und Möglichkeiten bewusst sein und kann durch Kauf und Verzicht dem hersteller zeigen, was ein Budget ist. Deutschen Autoherstellern werfen auch vielen das geld zu, obwohl es nicht mehr für höhere Preise gibt.

wolve666 schrieb:
so wie bei der Vorstellung der rtx Reihe mit ihrem Schrott raytracing... :rolleyes:

In meinen Augen wars ein wichtiger Schritt für die wegweisendste Technik der nächsten Jahre bei der Grafik. Das die leistung der ersten generation nicht Bäume ausreißt ist klar. Das war schon immer so. Ich finde es aber eher löblich, dass man sich hier neuen Themen zuwendet und weiter denkt. Sieht ja auch AMD so und versieht die neuen GPUs auch mit schrottigem Raytracing...
Ergänzung ()

Marcel55 schrieb:
Ich befürchte den werden wir bei Ampere auch erleben :D
Ampere zieht viele Ampere. Da braucht es nicht mal einen Spitznamen ala Thermi, den liefert NVidia von sich aus.

Ohne Bezug zur Gesamtleistung ist das relativ belanglos. Bestes beispiel ist die 2080Ti. Custommodelle haben da nicht auch selten TDPs von 320 Watt. Dafür bekommt man eine entsprechende Gegenleistung. Wenn ich 300 Watt und mehr mit einer vega 64 verbrenne ist das wieder eine andere Geschichte.

Und das AMD hier groß effizienter ist, müssen sie auch erst noch unter Beweis stellen. Effizienztechnisch konnte Navi 7nm auch nur etwa mit Turing in 12nm gleichziehen und da liegen 2 Full Nodes dazwischen.

Wegen mir können die Karten auch 400 watt verbrauchen, wenn die Leistung im Gegenzug stimmt.
 
  • Gefällt mir
Reaktionen: guillome, Ben81 und .Sentinel.
Für mich ist raytracing ne unnötige Technik ohne derzeitigen nutzen. Nvidia wollte damit wieder ein propitäres Alleinstellungsmerkmal Durchpressen, damit sie schön absagen können. So wie mit ihrem gsync..
Das AMD nun auch auf diesen zug aufspringt, entspringt dem reagieren auf den Markt, leider.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
wolve666 schrieb:
Für mich ist raytracing ne unnötige Technik ohne derzeitigen nutzen.
Es nutzt in der Software etwas, die diese Rendertechnik unterstützt.
Raytracing ist genauso unnötig wie Vektorgrafik, Sprites und alle sonstigen Merkmale des visuellen computings.
Es ist aber die Technik, die die qualitativ hochwertigsten Bilder erzeugen kann.

Nvidia wollte damit wieder ein propitäres Alleinstellungsmerkmal Durchpressen, damit sie schön absagen können. So wie mit ihrem gsync..
Basiert alles auf DXR - Insofern liegst Du völlig falsch. Dein Argument wird immer von denjenigen gebraucht, die sich 0 mit dem Thema auseinandergesetzt haben und voreingenommen in gewisser Richtung sind.

Das AMD nun auch auf diesen zug aufspringt, entspringt dem reagieren auf den Markt, leider.
Zum Glück springt AMD auf den Zug auf. Endlich wieder Fortschritt und Skalierbarkeit in Sachen Computergrafik.

Jeder der diesen nicht wünscht, kauft einfach keine neue Karte oder schaltet entsprechende Settings ab, so lange das noch möglich sein wird.
 
  • Gefällt mir
Reaktionen: Transistor 22, chilchiubito, Palatas und 11 andere
wolve666 schrieb:
So wie mit ihrem gsync
Und daran hat man nicht gesehen, dass es irgendwer mal vormachen musste, damit die Menschheit sehen und erleben kann, welche Vorteile man dadurch erhält? Solang sich am Ende daraus ein offener Standard entwickelt ist doch alles gut.

Und vergiss ihre Tensor Cores nicht, und die CUDA API. Alles proprietärer Mist. Ohne CUDA hätten wir wohl kein OpenCL bekommen. Ohne G-Sync kein FreeSync. Ohne Optimus keine Switchable Graphics auf'm Desktop. Ohne SLI kein .. ok, vergessen wir das schnell wieder - war aber natürlich auch ursprünglich eine 3dfx Technologie. :D
Und dann wären da noch so Sachen wie 3D Vision, die sich auf Dauer eben nicht durchgesetzt haben.

Sie probieren viel aus, weil sie es sich leisten können. Und wenn's nicht gut läuft, wird's halt zu den Akten gelegt. Aber wenn's gut läuft, dann gibt's 1-2 Jahre später eine Kopie und einen allgemeingültig(er)en Standard dafür und alle haben was davon.
Aber irgendwer muss halt initial erst mal das Geld aufbringen, um die Forschung zu finanzieren und das Zeug auf den Markt zu werfen und dann halt im Zweifelsfall damit Verluste einzufahren.
 
  • Gefällt mir
Reaktionen: nr-Thunder, Ben81, Shoryuken94 und eine weitere Person
wolve666 schrieb:
Für mich ist raytracing ne unnötige Technik ohne derzeitigen nutzen

Dann hast du glaube ich die Technik nicht verstanden und siehst auch nicht die Möglichkeiten, die Sie ermöglicht.

wolve666 schrieb:
Nvidia wollte damit wieder ein propitäres Alleinstellungsmerkmal Durchpressen, damit sie schön absagen können.

Das zeigt mir, dass du dich mit dem Thema nicht beschäftigt hast. Denn Raytracing ist nicht proprietär noch ist es Turingexklusiv. Einzig die Umsetzung der Hardwarebeschleunigung ist eine Nvidia Umsetzung. Raytracing ganz im Allgemeinen kann jede GPU Berechnen. Auch die Microsoft DXR Variante von DX12 ist im Grunde offen nutzbar, wenn es der Treiber supportet. Macht Nvidia beispielsweise mit Pascal. Wenn AMD wollte, könnten Sie es auch freischalten. Da fehlt dann halt die Hardwarebeschleunigung. Die zieht mit RDNA2 bei AMD ein.

Raytracing ist nicht nur die realistischste Darstellungsform. Sie kann theoretisch auch die Entwicklung beschleunigen, wenn man irgendwann nicht mehr auf einen Hybridmodus angewiesen ist und ganze Szenen Raytracen kann. Bis dahin werden noch jahre vergehen, aber ohne Hardware wird sich hier bei der Software wenig tun und genau dort liegt noch viel Potential brach, was endlich mal mit der ersten Generation dieser karten angegangen werden kann.

wolve666 schrieb:
So wie mit ihrem gsync..

Traurig, dass erst mal eine geschlossene Technik entwickeln werden muss, damit sich hier was am Markt bewegt. Offene Standards sind toll. keine frage. Aber anscheinend braucht es häufig erst mal einen Anstoß von außen. Und zum Thema G-Sync. Es ist bis heute die überlegene, wenn auch teurere und Nvidia Exklusive Technik.
 
  • Gefällt mir
Reaktionen: Flomek, Transistor 22, OzzTheBozz und 3 andere
@Wolfgang hat (oder bekommt?) Computerbase die Infos und Folien schon unter NDA und wird zum gleichen Zeitpunkt ne News online stellen oder "müssen" wir uns den Stream erst schon noch selbst angucken? ^^
 
@benneq sicher ist entwicklung neuer techniken wichtig, und natürlich müssen die firmen dafür geld investieren. aber so wie es nvidia immer wieder versucht, in den markt reinzupressen und n haufen geld dafür verlangt, und dabei diese techniken nur propitär mit ihren karten ermöglicht (wie bei gsync), ist es nicht in ordnung.
bei gsync hat nvidia sich dem allgemeinen druck letztendlich gebeugt, weil die leute es nicht einsehen, sich ne teure karte zu kaufen u. dazu nen überteuerten monitor, da die konkurrenz mittlerweile den offenen standart (sync) selbst besser anbieten kann zu weniger kosten.
aber da könnte man jetzt wie immer noch seitenlang diskutieren und kommt zu keinem ergebnis. ich jedenfalls bin auch gespannt auf die neue generation (beider lager) :-)
 
Damit wird nach 2 Jahren der GPU-Bereich hier wieder interessant werden.
Erstaunlich das Nvidia und AMD es geschafft haben, das es wirklich Null Leaks gibt, und bei Nvidia nur alle 2 Jahre einen Event kurz vor Release der neuen Generation.

Diese Null-Infopolitik ist nicht nur für die Fachredaktionen weltweit Gift, auch für die Endkunden selbst, die zum vollen Preis noch die alte Gen davor gekauft haben. Denn nur ein kleiner Bruchteil der Endkunden informiert sich im Netz. Und bei einer Null-Infopolitik ist echte Information auch nicht wirklich möglich, da es bis kurz vor Release nur wilde Spekulationen gibt.
 
TorgardGraufell schrieb:
Grade mal in die GPU Spardose geschaut vieleicht bekommt man ja schon für 1500 Euro was nettes , das wieder Paar Jahre hält.
Aber dafür überspringe ich ja auch immer eine Gen ;).
Ich werde mir das dann mal am 1 Sep anschauen...und dann auf die Custom´s warten :smokin:

Ich hoffe ja noch, dass ich für bescheidene 1000 Euro sowas wie eine 3080 bekomme 🙂
 
wolve666 schrieb:
aber so wie es nvidia immer wieder versucht, in den markt reinzupressen und n haufen geld dafür verlangt, und dabei diese techniken nur propitär mit ihren karten ermöglicht (wie bei gsync), ist es nicht in ordnung.
Doch- Ist es absolut, da nvidia überhaupt nicht in der Position ist, hier igendjemandem oder irgendetwas "reinzupressen".

nvidia fährt die Innovationsschiene mit einem entsprechend verbundenen Risiko. Damit machen sie dem Nutzer lediglich ein Angebot. Kein Zwang, kein über den Tisch ziehen, nichts dergleichen.

Der Nutzer entscheidet daraufhin durch sein Kaufverhalten, ob ihm das Gebotene den Preis wert ist.
So läuft das und nicht anders.
 
  • Gefällt mir
Reaktionen: Transistor 22, Palatas und Mumusud
was finden alle an diesen countdowns die nach aufmerksamkeit betteln??

viel cooler und richtig "anschlagsmäßig" wäre es doch gewesen wenn sie einfach mal kurzfristig die bombe platzen lassen...die ticker der tech-seiten würden platzen.
 
  • Gefällt mir
Reaktionen: EadZ1
Zurück
Oben