News Resizable BAR: Nvidia gewährt ebenfalls den Vollzugriff auf VRAM

Rugelkund schrieb:
Welche denn? Und das meine ich ernst, das möchte ich tatsächlich gerne wissen.
Also mir fallen jetzt auf die schnelle G-Sync ein (hat die Diskussion überhaupt erst ins Rollen gebracht, die Funktion in dem Display Port/HDMI Standard rein zu bringen).
GPU Computing in Form von Cuda, war glaube ich auch zuerst da.
3D Stereo, wobei ich nicht weiß ob Elsa damals der federführende war.
Raytracing ist noch relativ neu.
Rtx Voice bzw Broadcast ist ein extrem guter Filter.
 
Eventuell kann Nvidia das Update auch ohne die Boardpartner ausrollen, war das mit dem DisplayPort BIOS Bug nicht auch so, das es ein Tool direkt von Nvidia gab, welches auf allen Karten ging?
 
domian schrieb:
Blabla... sagt derjenige, der zwei Monitore mit einer 7850 befeuert. Ernsthaft?

Oh, ist da jemand beleidigt? :streicheln:
Nicht weinen :heuldoch:
 
  • Gefällt mir
Reaktionen: Ashnacl
SavageSkull schrieb:
Also mir fallen jetzt auf die schnelle G-Sync ein (hat die Diskussion überhaupt erst ins Rollen gebracht, die Funktion in dem Display Port/HDMI Standard rein zu bringen).
GPU Computing in Form von Cuda, war glaube ich auch zuerst da.
3D Stereo, wobei ich nicht weiß ob Elsa damals der federführende war.
Raytracing ist noch relativ neu.
Rtx Voice bzw Broadcast ist ein extrem guter Filter.
nein, FeeSync IST der DP-Standard (deswegen braucht es da auch keine teure Zusatzkarte im Monitor)
Nein, GPU Computing ging zuerst auf AMD, CUDA wurde erst später implementiert
3D Stereo müsste ich auch passe
Raytracing ist keine "Erfindung" von NV, da werkeln alle schon lange rum, es scheitert bis heute an vernünftig schneller HW
RTX Voice, naja ein bisschen SW-Optimierung, auch hier, der erste Grafikchip mit integrierter Soundeinheit (für HDMI) kam.. richtig, von AMD. Kann mich noch an die Zeiten erinnern, wo man von der NV Graka extra ein Kabel auf den Onboard Sound dtecken musste, damit bei NV Sound per HDMI kam ;)
 
SavageSkull schrieb:
Also mir fallen jetzt auf die schnelle G-Sync ein (hat die Diskussion überhaupt erst ins Rollen gebracht, die Funktion in dem Display Port/HDMI Standard rein zu bringen).
GPU Computing in Form von Cuda, war glaube ich auch zuerst da.
3D Stereo, wobei ich nicht weiß ob Elsa damals der federführende war.
Raytracing ist noch relativ neu.
Rtx Voice bzw Broadcast ist ein extrem guter Filter.
OK, da hast du Recht. Mein Problem, das ich mit der Liste habe, ist, dass alles closed source ist. G-Sync führt dazu, dass man für einen als solchen offenen Standard für Monitore drauf zahlt. CUDA ist tatsächlich eine Supertechnologie, macht HPC wunderbar schnell. Wegen closed source kann es aber nur auf Nvidiakarten verwendet werden. Raytracing ist effektiv etwas, wo sie die neue Funktion ins Silizium "gegossen" haben und den Druck auf die Konkurrenz erhöht haben, ebenfalls Lösungen zu präsentieren.

AMD hingegen setzt auf open source und hat so Lösungen ermöglicht, die auch ausserhalb vom AMD Ökosystem Verbesserungen ausgelöst hat.

Ob sie das gemacht hätten, wenn sie in Nvidias Position gewesen wären, steht auf einem anderen Blatt. Ich würde es auch bezweifeln, aber wissen kann man es nicht.
 
Mhalekith schrieb:
nein, FeeSync IST der DP-Standard (deswegen braucht es da auch keine teure Zusatzkarte im Monitor)
Nein, GPU Computing ging zuerst auf AMD, CUDA wurde erst später implementiert
3D Stereo müsste ich auch passe
Raytracing ist keine "Erfindung" von NV, da werkeln alle schon lange rum, es scheitert bis heute an vernünftig schneller HW
RTX Voice, naja ein bisschen SW-Optimierung, auch hier, der erste Grafikchip mit integrierter Soundeinheit (für HDMI) kam.. richtig, von AMD. Kann mich noch an die Zeiten erinnern, wo man von der NV Graka extra ein Kabel auf den Onboard Sound dtecken musste, damit bei NV Sound per HDMI kam ;)
Freesync bzw eine Standardisierung im Display Port gab es noch gar nicht, als man schon funktionsfähige gsync Monitore in Media Markt als Endkunde kaufen konnte. Bei der Frage ging es nicht darum ob Nvidia die schönste Lösung hat, sondern wer zuerst da war und den Stein ins Rollen gebracht hat. Bei der Funktion dass der Monitor synchron arbeitet war Nvidia zuerst da, das wird gerne unter den Tisch gekehrt.
Auch bei den anderen Sachen drehst du mir das Wort im Mund herum.
 
Mhalekith schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

1. Freesync ist die "Implementierung" von AMD der VESA Standards Adaptive Sync. nVidia hat GSync veröffentlicht weil innerhalb der VESA es damals nicht voran ging mit der "Spezifikation" und nVidia unzufrieden war mit dem Ergebnis des Gremiums (dort sitzen ja mehr Unternehmen als nVidia und AMD im Board) und es nVidia nicht weit genug ging. Eigentlich war Adaptive Sync schon als Pflichtfeature im DP 1.2 Standard vorgesehen. Erst als nVidia Nägel mit Köpfen machte, ging es mit der Verabschiedung von DP 1.2a vorwärts.

Der VESA Standard hat auch erst mit der Zeit zu den Möglichkeiten von GSync aufgeschlossen und auch heute macht eben die "teuere Zusatzkarte" Sinn. Wenn ich einen Monitor mit xxx Hz, FALD, HDR1000 etc. brauche ich eh ein ASIC oder FPGA im Monitor. Das ist der Grund wieso bei den absoluten Highend Modellen die Hersteller eben gerne das Ultimate Modul nehmen (weil ansonsten müssten sie es selber entwickeln oder woanders zukaufen). Dazu funktioniert LFC bis heute nicht sauber ohne die "teure Zusatzkarte" außer ich nehme massiven Lag etc. in Kauf.

2. "Raytracing" ist eben auch so ein Henne/Ei Problem. Hätte eben nVidia es nicht mit Turing so nach vorne getrieben gäbe es heute weder die Spiele noch hätte man AMD bzw. Microsoft in Zug zwang gebracht. Und jemand muss eben anfangen. Und zur Hardware: Ich kann heute Spiele mit Global Illumination auf einer kommerziellen Karte spielbar laufen lassen. Das ist nun mal eine Sprung in der allgemeinen Bildqualität. Man muss sich hier auch eben klar sein, dass nVidia Transitorbudget geopfert hat und das war eine Risikoentscheidung für nVidia höchster Güte.

3. So einfach ist das mit dem Begriff "CUDA" nicht. AMD hatte zwar bisschen was mit CTM gemacht vor CUDA 1.0 aber das war eher "Experiment". Das Steam SDK kam dann ja als Antwort auf CUDA 1.0. Wiederum Open CL etc. schließen erst heute so auf CUDA auf (Stichwort CUDA Runtime API). Und nVidia sitzt natürlich im Kronos Gremium.

Wir könnten es fortsetzen. Es ist so: AMD hat bisher (und das lag auch an den finanziellen Möglichkeiten des Unternehmens) häufig fertige offene Standards implementiert auch um sein Budget entsprechend zu schonen. nVidia wiederum hat häufig eben weit vor den Standards etc. Sachen implementiert und den Markt getrieben. Ich bin mir sicher, dass AMD mit seinen nun größeren finanziellen Möglichkeiten hier auch sein "Bild" ändern wird. Natürlich hat AMD auch vorher den Markt getrieben -> ohne Metal wären wir heute nicht bei DX12 etc. aber AMD musste eben deutlich stärker abwägen wo man Geld auf Risiko investiert.

Mir geht es nur darum, dass es häufig so dargestellt wird, dass nVidia sich nicht an Standards etc. hält bzw. Industriestandards als Erfindung von AMD verkauft werden. In der Kronos Group, VESA etc. sitzt natürlich nVidia auch mit im Gremium. Nur konnte halt nVidia sich erlauben auch eben mal öfters vorzupreschen als AMD.

zur RBAR, SAM etc. weil es immer wieder falsch durch die Gegend geistert:

1. RBAR ist eine "Standardspezifiaktion" des PCI Gremiums.

2. SAM ist die konkrete Implementierung eines Szenarios von AMD auf Basis von RBAR wo wir keine Ahnung haben was AMD konkret macht (bzgl. der Diskussion der Lauffähigkeit auf Zen+ etc.).

3. SAM ist eine Lösung für den Bottleneck der Latenz beim Zugriff der CPU auf VRAM und hat NICHTS mit der Speichermenge zu tun. Es bringt genau dort was wo diese Latenz eben den Bottleneck darstellt. Mittlerweile gibt es anscheinend Gameengines wo dies ein limitierender Faktor sein kann.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: DaBo87, EAT1963 und SavageSkull
Phoenixxl schrieb:
Ich hoffe, dass das auch noch für Pascal kommt. Dann komme ich mit meiner 1080 ti noch so lange hin, bis die 6800 XT zu normalen Preisen verfügbar ist oder sogar noch deutlich länger.
Die Entscheidung 1080 ti und ein WQHD Monitor war jedenfalls richtig.
6800XT ca. 1000 Euro rum ist normal Preis, viele Hersteller haben ihre Customs so angekündigt das der Kühler 250 Euro für uns kosten wird, daher 650+250 = 900 Euro wirst du günstige Customs bekommen... Asus hat als einer der ersten Hersteller ihre MSRP von 899 auf 1079 glaube müsste es gewesen sein erhöht.. daher sind 1050 Euro in etwa für gute Custom Designs der Normalpreis, denke auch nicht das sich das dieses Jahr noch ändern wird.
 
mcbloch schrieb:
Also da ja anscheinend ein VBios gebraucht wird, fallen wohl alle Karten vor der 3000er Serie weg.
Damit hat sich der Hype wohl hiermit erst einmal erledigt. Keine Firma wird für alle älteren Generationen VBiose erstellen, das wäre total unwirtschaftlich. Sehr schade.

Aus meiner Sicht wäre es sogar sehr wirtschaftlich, wenn die Hersteller Biosmäßig nachziehen würden, weil Ressourcenschonend.

Dieses "Jedes Jahr ne neue Grafikkarte kaufen Gehype" motiviert die Hersteller doch auch nur, weil der Käufer das vollkommen angenommen und verinnerlicht hat.
Gibt genug Leute die sich wirklich fast jedes Jahr die neuesten Grafikkartengenerationen in den PC zimmern. (Ich kenne zumindest da 2 Leute)

Man könnte das Bios sicher auch für die RTX 2000er Serie bringen, nur leider denken die Marketingabteilungen da unwirtschaftlich, weil Nachhaltigkeit und Pflegen älterer Produkte eben keinen wirtschaftlichen Gewinn abwirft. Für die RTX 3090 und 3080 sowie 3070 wird auf jeden Fall nachgeliefert.

Man wird aber auch des öfteren mal mit positiven Ereignissen überrascht. Das letzte mal war das bei mir mit einer ASUS Strix RX 480 so, wo ein Bios Update die Systemstabilität verbessert hat, was aber auch notwendig war.

Ich bin mir zu 99,9 % sicher, das die Hersteller rBar auch für die Polaris Karten möglich machen könnten,
da es sich bei rBAR aber um was Hardware exklusives handeln soll zweifle ich erstmal, ob Nvidia oder die Hersteller sich erbarmen was die letzte Grafikkarten Generationen angeht.

Schade, sehr Schade aber wie oft habe ich das schon bei anderen Produkten gedacht. Ist leider nichts neues.

Greetz!

Slaughter
 
schön zu sehen das nvidia nun das auch noch den vollzugriff erlaub. ich frage mich wieso die das bis jetzt nicht gemacht haben. sowohl amd als auch nvidia, wenn das nur eine software implementierung ist.
 
An den Benchmarks mit den älteren AMD Karten sieht man ja, dass das nicht wirklich viel bringt. Vielleicht u.A. deshalb. Und die Arbeiten damit haben seitens AMD ja schon mindestens seit 2015 begonnen.
 
SavageSkull schrieb:
Freesync bzw eine Standardisierung im Display Port gab es noch gar nicht, als man schon funktionsfähige gsync Monitore in Media Markt als Endkunde kaufen konnte.
Das Stimmt so nicht. Adaptiv Sync wurde mit Displayport 1.2a im Januar 2013 als optionales Feature eingeführt und standardisiert.
G-Sync wurde im Oktober 2013 vorgestellt.

Adaptiv Sync ist also älter als G-Sync.
Ergänzung ()

Einmal darf man also raten, woher Nvida die Idee mit G-Sync hatte...
 
Ich muss auch sagen, rBar wäre sicher für Turing auch möglich wenn gewollt. Aber grade bei Nvidia ist es klar, dass es nicht kommen wird. Ich würde mich auch um geschenkte mehr Performance freuen, aber rechnen tue ich nicht damit. Im Moment sehe ich das auch nicht so tragisch die paar Spiele die davon überproportional profitieren reizen mich eh nicht. Ich habe nur die Befürchtung, wenn es erst einmal auf PC und next Gen Consolen verbreitet ist wird es immer öfter mehr als 10% Leistung bringen und die alten Karten haben das Nachsehen und altern noch schneller.
 
HyperSnap schrieb:
Ich hab jetzt mal nach den Preisen geschaut, dass nimmt sich momentan alles irgendwie nichts oder?^^
Gerade die 6900xt ist teilweise nur 50 Euro billiger als meine 3090.
Deshalb habe ich ja geschrieben UVP. Mit den Preisen der Händler hat der Hersteller eh nichts am Hut mit. Ist nur der empfohlene Preis. Und die 6900xt ist wie gesagt eh überteuert.
Dagegen angehen kann man nur wenn man sich weigert diese Preise zu bezahlen. Aber gibt genug dumme die diesen Aufpreis in Kauf nehmen.
 
ChowTan schrieb:
Und schon wieder ein von AMD geklautes Feature. Ich kann mich noch erinnern als AMD Mantle vorgestellt hatte, dass Nvidia auf einmal einen Treiber rausgebracht hatte der den CPU-Overhead unter DX11 deutlich reduziert. Gängige Praxis bei Nvidia.
🙄

Von GSync, Raytracing, DLSS, TXAA, 3DVision, etc. etc. etc. reden wir besser nicht.

Vermutlich findest du es aber auch doof, dass nach Doom noch andere Shooter dieses Konzept GEKLAUT haben. 🤦‍♂️


Junge, Junge ...
Fanboy sein muss sich schon echt komisch anfühlen.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Ashnacl, orlof und eine weitere Person
Ich muss mal schauen, was ich mache und ob ich da den VBIOS Flash probiere. Das Problem bei Palit: ihr aktuelles Flashtool inklusive BIOS File gefällt dem MS Defender nicht, weshalb ich Palit schon eine Mail geschrieben habe und danach gefragt habe, wie denn das sein kann? Unabhängig davon, dass das File laut Palit nach nochmaliger Prüfung mit mehreren Virenscannern (fünf!!!) in Ordnung ist, möchte ich nicht, dass dann irgendetwas bei einem VBIOS Flash dazwischenfunkt. Warum die Hersteller da einfach keine Pre-OS-Tools anbieten. Bei einem mit RTX3080 bei Reddit ist es nämlich schiefgelaufen. Zum Glück hatte er nach einem Blackscreen und dem Reset des PC noch das alte VBIOS auf seiner Karte.
 

Anhänge

  • 233FCC9D-CB07-4413-8C85-4AEB93EB4532.jpeg
    233FCC9D-CB07-4413-8C85-4AEB93EB4532.jpeg
    264,4 KB · Aufrufe: 265
Zuletzt bearbeitet:
Ist das nicht eigentlich einfach nur ein PCI-Express 4.0 Feature um die Bandbreite zur CPU zu erhöhen? 🤣
Ich meine wie das in dem Artikel beschrieben wird klingt das schon falsch.
Vollerzugriff, man hat immer vollen Zugriff nur halt braucht es ohne etwas länger weil nicht alles in einem Abwasch gelesen werden kann.
 
USB-Kabeljau schrieb:
🙄

Von GSync, Raytracing, DLSS, TXAA, 3DVision, etc. etc. etc. reden wir besser nicht.

Vermutlich findest du es aber auch doof, dass nach Doom noch andere Shooter dieses Konzept GEKLAUT haben. 🤦‍♂️


Junge, Junge ...
Fanboy sein muss sich schon echt komisch anfühlen.
Oh ja, schlimm oder? Mich nerven so ne Boys in Foren auch immer, es sollte getrennte Bereich nach Alter und Niveau geben XD

Ich hätte auch so gern eine RX6800, aber bei der Verfügbarkeit und Preisen ist es mir vergangen. Ich hab nun eine rtx3070 über Ebay Kleinanzeigen gekauft und an einer Tankstelle abgeholt. Bis auf die 8gb Speicher ist die Karte doch echt sehr gut. Mir fiel vor allem im Videoschnitt auf, das die Live Anzeige viel besser funktioniert und vor allem das Tracken von markierten Flächen (mein Motorradtacho :D) viel schneller berechnet werden und vor allem mit 100% Genauigkeit. Meine olle gtx970 war da echt überfordert.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und BorstiNumberOne
USB-Kabeljau schrieb:
🙄

Von GSync, Raytracing, DLSS, TXAA, 3DVision, etc. etc. etc. reden wir besser nicht.


Stimme dir zu aber bleib bitte du wenigstens hier sachlich und zieh Raytracing ab. Raytracing ist keine Nvidia eigene Entwicklung/Feature. Raytracing gab es schon lange vor der RTX 2000 Serie. Ich kann mich u.a. an Intel in den 2000er erinnern, die mit Raytracing damals experimentierten und real Raytracing Tech Demos damals zeigten, von anderen Demos ganz zu schweigen. Vielleicht hat Nvidia es als erstes für den Massen- bzw Consumermarkt eingeführt (für Quadro und spezielle Kunden gab es Raytracing bei Nvidia auch lange vorher schon), aber es ist und bleibt kein Nvidia Feature.
 
Zurück
Oben