News 3DMark für Mantle: DirectX 12 und Mantle sollen gleich schnell sein

Das macht doch keinen Sinn mit kisser zu diskutieren. Der hat doch noch nicht einmal Ahnung was Einzahl und Mehrzahl bedeutet.

Er selber spricht von Anschlüssen:
Selbstverständlich sind GSync-Monitore VESA kompatibel, sonst würden die ja nicht an VESA-kompatiblen Video-Anschlüssen funktionieren.
Dann hat er noch nicht einmal einen Plan, dass die aktuellen G-Sync Monitore keine Video Anschlüsse haben, sondern nur einen Video Anschluss. Nämlich nur DP. Wie kann ein Monitor, der nur einen DP Anschluss hat, VESA kompatible Anschlüsse haben?

Es fehlt somit einfaches Grundwissen zu diesem Thema. Wieso sollte nun eine Diskussion ein simples Niveau erreichen, wenn noch nicht einmal einfaches Grundwissen vorhanden ist?
 
Kisser reitet eben auf dem kleinen Detail herum das der genutzte Anschluss mechanisch VESA DP 1.2 entspricht, wobei man davon ausgehen muss das er elektronisch nur bedingt dem VESA Standard entspricht, da vermutlich ungenutzte Leitungen oder zumindestens nicht dem Standard entsprechende Signale zwischen der GPU und dem G-Sync Modul genutzt werden. Es wird natürlich jedes Gerät mit DP Anschluss darauf ein Bild ausgeben können, aber VESA konform wird er vermutlich dennoch nicht sein.

Aber das ist eine typische Wortklauberei, welche zum Stänkern genutzt wird. Er weiß genau worum es geht.

Wenn ich mir teilweise auch seine Art und Weise hier angucke kann ich mir nicht vorstellen das er ein Pädagoge sein soll, und falls doch möchte ich nicht Schüler bei ihm sein.
 
AMINDIA schrieb:
Das macht doch keinen Sinn mit kisser zu diskutieren. Der hat doch noch nicht einmal Ahnung was Einzahl und Mehrzahl bedeutet.

Er selber spricht von Anschlüssen:

Einmal Nachhilfe in Deutsch und Mathematik für dich: 1xDP an Intel-Graka und 1x DP an AMD-Graka macht wieviele Anschlüsse?

AMINDIA schrieb:
Dann hat er noch nicht einmal einen Plan, dass die aktuellen G-Sync Monitore keine Video Anschlüsse haben, sondern nur einen Video Anschluss. Nämlich nur DP. Wie kann ein Monitor, der nur einen DP Anschluss hat, VESA kompatible Anschlüsse haben?

Siehe oben. Deutsch zu verstehen muss unglaublich schwierig sein.

AMINDIA schrieb:
Es fehlt somit einfaches Grundwissen zu diesem Thema. Wieso sollte nun eine Diskussion ein simples Niveau erreichen, wenn noch nicht einmal einfaches Grundwissen vorhanden ist?

Du musst nicht von dir auf andere schließen!

PiPaPa schrieb:
Es wird natürlich jedes Gerät mit DP Anschluss darauf ein Bild ausgeben können, aber VESA konform wird er vermutlich dennoch nicht sein.

Er muss VESA konform sein, sonst könnten andere (VESA-konforme) Geräte ja kein Bild drauf ausgeben.


QUOTE=PiPaPa;16595456]
Wenn ich mir teilweise auch seine Art und Weise hier angucke kann ich mir nicht vorstellen das er ein Pädagoge sein soll, und falls doch möchte ich nicht Schüler bei ihm sein.[/QUOTE]

Schade für dich. Könntest jede Menge von mir lernen. Und nicht nur du.
 
Zuletzt bearbeitet:
Er muss VESA konform sein, sonst könnten andere (VESA-konforme) Geräte ja kein Bild drauf ausgeben.
Nein, muss er nicht zwangsläufig sein. Der DP Anschluss könnte auch unbelegte Pins haben, welche eben bsp jetzt für die Kommunikation zwischen nvidia GPU und G-Sync Modul genutzt werden bzw es werden über die vorhandenen Leitungen Signale mitgeschickt, was eben nicht VESA konform ist.

Audio über DVI(-I) ist auch möglich, obwohl nicht vorgesehen und wurde von den Herstellern dafür genutzt. Nicht nur AMD, sondern auch die Dreambox Hersteller haben dies gemacht. Dieses ist im DVI-Standard nicht vorgesehen und das ist kein DVI konformes Signal!

Schade für dich. Könntest jede Menge von mir lernen.
Ich lerne zwar gerne was dazu, aber anscheinend möchte ich Überheblichkeit nicht erlernen. Siehe oben :rolleyes:
 
lol kisser
Du redest von die G-Sync Monitore haben VESA kompatible Anschlüsse.
kisser schrieb:
Selbstverständlich sind GSync-Monitore VESA kompatibel, sonst würden die ja nicht an VESA-kompatiblen Video-Anschlüssen funktionieren.:rolleyes:

Hast du eine Quelle, dass ein GSync-Monitor an Intel/AMD NICHT funktioniert?

Kann es sein, dass du den Begriff "kompatibel" nicht verstehst?
Jetzt kommt als Ausrede für deinen unüberlegten Quatsch, dass ja die Grafikkarte, :D ich lach mich rund, ich weiß schon warum ich hier täglich lese für meine persönliche Unterhaltung, auch einen DP Anschluss hat.

Nun, durch eine Grafikkarte erhöht sich nicht die Anzahl der Anschlüsse am Monitor. Der G-Sync Monitor hat weiterhin nur einen einzigen Anschluss, nämlich nur einen Displayport 1.2.

kisser. Es ist nicht möglich den DP Anschluss einer Grafikkarte zu nehmen um diesen dann an einen Monitor zu verbauen. Auch nicht bei einem G-Sync Monitor. Allerdings könnte es natürlich sein, dass möglicherweise Nvidia hier mit liest und für dich ein Bastelset zu Weihnachten auflegt. Praktisch als Legobaukasten. Hierzu wäre es natürlich wichtig, wenn du Nvidia dein Alter angeben würdest, damit man dieses Set so gestaltet, dass du damit dann nicht überfordert bist. Eltern die ihren Kinder einen Legobaukasten zu Weihnachten schenken, achten ja schließlich auch darauf, dass sie ihrem 6 jährigem Kind kein Set kaufen für 12 jährige.
 
Gut, dass es AMD gibt, sonst würde sich auf dem GraKa und CPU Markt gar nichts mehr bewegen. Der David muss dem Goliath wie immer zeigen, dass man nicht stehenbleiben darf.
 
PiPaPa schrieb:
Nein, muss er nicht zwangsläufig sein. Der DP Anschluss könnte auch unbelegte Pins haben, welche eben bsp jetzt für die Kommunikation zwischen nvidia GPU und G-Sync Modul genutzt werden

Wieso den Konjunktiv benutzen? Der DP hat keine unbelegten Pins. Quelle: S. google

PiPaPa schrieb:
Ich lerne zwar gerne was dazu, aber anscheinend möchte ich Überheblichkeit nicht erlernen. Siehe oben :rolleyes:

Welche Reaktion erwartetest du denn auf deinen dämlichen Spruch von oben? Mit Überheblichkeit hat das nichts zu tun.

AMINDIA schrieb:
lol kisser
Du redest von die G-Sync Monitore haben VESA kompatible Anschlüsse.

Kann nicht dein Ernst sein, oder? Lies meinen Satz noch mal in Ruhe durch. Der ist in korrektem Deutsch formuliert und unmissverständlich.
Dass die Sprachkenntnisse Jugendlicher abnehmen erlebe ich jeden Tag in der Schule. Aber dass das so krass ist, erstaunt mich immer wieder.

@Pipapa
Auch diese Aussage hat nichts mit Überheblichkeit zu tun, sondern ist schlichtweg Fakt.
Ich würde es selbst nicht glauben, wenn es mir jemand erzählte. Aber die Sprachkenntnisse junger Menschen (und das bezieht sich nicht auf welche mit Migrationshintergrund) sind vielfach erschreckend.
 
Zuletzt bearbeitet:
Es liegt weniger an den Sprachkenntnissen als an den technisch unsinnigen Inhalten die du verbreitest. Aber das ist ja beliebt bei Pädagogen sich auf die Form der Unterhaltung zurückzuziehen wenn es bei den Inhalten mangelt. Überprüfe mal deine Aussagen in gleichem Masse auf Realität, wie du das bei anderen ihren Aussagen machst. Mit den gleichen Massstäben.

Die Art wie du Dinge zum Fakt erklärst ohne Beweise "Weil ich es so sage" spricht auch für den "Modernen" pädagogischen Stil, wenn ich das mal ironisch bemerken darf.
 
Zuletzt bearbeitet:
Daedal schrieb:
"In den vor uns liegenden Monaten werden wir weitere Partner einladen an dem Entwicklungsprojekt teilzunehmen, dies führt zu einer Veröffentlichung der Spezifikationen später in 2014."

Da AMD diese Partner schon eingeladen hat, gehe ich davon aus, dass alle in 6 Wochen beim Release an Bord sind mit der Angekündigten Veröffentlichung des SDK. Völlig normaler Vorgang.


Weiß jemand, wie lange das Jahr 2014 bei AMD noch dauert?
Für den Rest der Welt hat es jedenfalls vor knapp 24 Stunden geendet.
 
@kisser

Bei Unternehmen gilt das Fiskal- bzw. Geschäftsjahr. Wie genau das bei AMD aussieht muss man schauen ich wüsste es aktuell nicht ausm Kopf.
 
Für Produktankündigungen gilt immer das Kalenderjahr und nicht das Fisklajahr, welches übrigens bei AMD am 27. Dezember endete.
 
deathscythemk2 schrieb:
Gut, dass es AMD gibt, sonst würde sich auf dem GraKa und CPU Markt gar nichts mehr bewegen. Der David muss dem Goliath wie immer zeigen, dass man nicht stehenbleiben darf.


Nur macht David zu wenig. Im Graka Bereich tun sie nur das Nötigste. Bei den CPUs haben sie seit min 6 Jahre null Chance gegen Intel.

DX12 wird kaum was bringen,denn egal was passiert,die Spielemacher zerstören alles durch miese Programmierung
 
Wenn man deinen Post liest merkt man schlicht die Pauschalisierungen.
Nur weil nvidia jetzt eine neue Generation gebracht hat, welche effektiver ist, macht AMD nur das nötigste? Aber HBM ist dir ein Begriff? Hat AMD ja auch nur in Sachen Speicher 1 Jahr Vorsprung.
Und im CPU Bereich gibt es nicht nur ausschließlich High End :rolleyes:
 
Turican76 schrieb:
Nur macht David zu wenig. Im Graka Bereich tun sie nur das Nötigste. Bei den CPUs haben sie seit min 6 Jahre null Chance gegen Intel.

DX12 wird kaum was bringen,denn egal was passiert,die Spielemacher zerstören alles durch miese Programmierung

Du übersiehst nur eine Kleinigkeit: AMD ist tatsächlich der David. Schau dir doch mal das Werbebudget von Intel an und vergleiche es mit AMDs Gesamtbudget, dann wirst du sehen, warum AMD sich nicht so breit aufstellen kann. Erstaunlicherweise gelingt es AMD trotzdem eine echte Alternative zu sein. Zugegeben, nicht für die Highend-Performance-CPUs, aber bei den GraKas sind sie sehr gut aufgestellt und bestehen mit Jahre alten Karten gegen die neuen nVidias. Und die CPUs sind für die meisten Leute mehr als ausreichend.
 
Das ist ja ein Traum! Wenn gleich es noch eine frühe Testphase ist.

Man sieht schon klar wie viel stärker eine 980 ggü. einer 290X ist.

Das alles lässt mich wirklich hoffen und liest sich extrem positiv. Ich freue mich schon sehr darauf.

Was ist denn mit aktuellen Titeln wie z.B. BF4. Das ist ja kein DX12 Titel. Werden solche Spiele dann dennoch davon profitieren?
 
Also wenn hier einer glaubt, dass dieser Bench später mal die Reihenfolge darstellt also eine R290X auf Niveau einer GTX 680 abfällt, ja der glaubt auch noch an den Weihnachtsmann :D

Was ist denn mit aktuellen Titeln wie z.B. BF4. Das ist ja kein DX12 Titel. Werden solche Spiele dann dennoch davon profitieren?

Nein. Überleg mal, warum sollten Sie? Außer es kommt noch ein DX 12 Patch, was ich bezweifle.
 
t3chn0 schrieb:
Das ist ja ein Traum! Wenn gleich es noch eine frühe Testphase ist.

Man sieht schon klar wie viel stärker eine 980 ggü. einer 290X ist.


In einem Benchmark, ansonsten sind beide Karten weitaus näher beianander.
 
Dai6oro schrieb:
Also wenn hier einer glaubt, dass dieser Bench später mal die Reihenfolge darstellt also eine R290X auf Niveau einer GTX 680 abfällt, ja der glaubt auch noch an den Weihnachtsmann :D

Hat das etwa jemand behauptet?

Getestet wird hier doch nur, wie das Verhalten bei einer hohen Draw-Call Last ist. Für mehr ist diese Starswarm Demo doch nicht zu gebrauchen.

Zwei Dinge kann man aus dem Test herauslesen:
1. Nvidia hat die DX11 Treiber auf hohe Draw-Call Last getrimmt, AMD nicht (das ist beides ja schon länger bekannt)
2. DX12 und Mantle performen ungefähr gleich


/Ergänzung:
Bevor noch jemand Unfug schreibt:

Die Starswarm Demo ist absolut ungeeignet, eine Aussage über die allgemeine Performance von GPUs zu treffen.
 
Meine Antwort war auch nicht auf dich gemünzt.
 
Zurück
Oben