ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Jeder, der etwas mehr mit GraKas zu tun hat, schaut bei 3DC, B3D und XS in die Threads *Schulter zuck* Und Ail sollte ein Begriff sein.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Um auf meine Aussage zurückzukommen, dass ich denke, Nvidia wird die GTX4-Serie attraktiver anbieten, als die GTX2-Serie (ich weiss, ist schon einige Seiten her;)) Das Videointerview finde ich leider nicht mehr - dafür ein Gespräch von AnandTech:
AnandTech schrieb:
Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.

Ujesh doesn't believe NVIDIA will make the same mistake with Fermi.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=7
Wir werden sehen, inwiefern der Herr hier die Wahrheit spricht:)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@y33h@ Welche doppelte Far CRY 2 Performance?
Intressant eure Spekulationen. Alllerdings verwirrt das ganze etwas.
Der Hotclock Wert 1,7 ghz stand also einfach so im Raum und kann nicht durch irgendein Verhältnis durch 750 mhz Chiptakt erklärt werden?
Klar 2x750 sind nicht 1,7 ghz, aber wo ist da der Zusammenhang mit den 1,7ghz @y33h@?
Der wert ist doch utopisch.
Wenn aber niemand weiß ob die 750 mhz GPC oder Coretakt sind, kann man die Spekulation eh vergessen, wobei ich dafür wäre, dass es core takt wäre, weil das ja dann mal 2,3 genommen werden darf und den Hotclock ergibt? Ergo ist das die entscheidende Frage??^^
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Schaffe89
Das "doppelte Performance" bezog sich (denke ich) nur auf PhysX-Berechnungen. Ansonsten hätte ich die doppelte FC2-Performance auch noch nicht gesehen;) (Evtl. min-Frames?)

Core-Clock hat mit GPC-Clock nichts (oder nur sehr wenig) zu tun!
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Genau Schaffe - so sehe ich das nämlich auch. Daher ist es hilfreich die Quelle zu sehen wo solche Spekulationen herkommen. Nur weil irgendjemand laut nachdenkt wird so etwas nicht automatisch sinnvoll.
Die Sache mit dem Hotclock ist für mich auch nicht unbedingt schlüssig, ebenso wenig wie der Faktor 2,3 entstehen soll bei Fermi.
Die Teslas takten allesamt langsamer:
http://www.pcgameshardware.de/aid,7...ALU-Anzahl-der-Tesla-Karten/Grafikkarte/News/
Nvidias Compute-Grafikkarten Tesla C2050 und C2070 auf Basis der Fermi-Architetkur scheinen mit weniger Rechenkernen auskommen zu müssen: Die GPU mit 512 Kernen kann nur auf 448 zurückgreifen, so die Informationen aus den Board-Spezifikationen bei Nvidia. Hier wird auch der ALU-Takt verraten: 1,25 GHz bzw. 1,40 GHz. Der GDDR5-Speicher soll mit 1,8 bis 2,0 GHz laufen - das passt zu den Gerüchten des 384 Bit breiten Interfaces, welches auch im Dokument genannt wird.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schaffe89 schrieb:
Welche doppelte Far CRY 2 Performance? Intressant eure Spekulationen.
Keine Speku. NV-Benches, FC2 "Ranch Small" 25x16 mit 4x/16:1. Fermi macht fast genau das doppelte der GTX285.
Schaffe89 schrieb:
Der wert ist doch utopisch.
Warten wir es ab - ich sage nichts, so wie Ail auch.

@ Complication

Bei GT200(b) taktet die schnellste Tesla auch langsamer als die GTX 285. Lasst die Teslas außen vor, hier gelten andere Maßstäbe als bei Desktop-Karten! Zumal sich die Tesla-Werte auf die A2 beziehen und nicht auf die A3 mit der die GTX 400 auflaufen. Rückblick G80: Der Taktsprung von A2 auf A3 war hoch. Stand heute - stay tuned :D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die 1.7Ghz waren NVs Zieltaktraten, die man von Anfang an erreichen wollte und das bei dem Verbrauch der GTX285. Deshalb stehen die im Raum. Das die TDP schon höher ist, als bei der GTX285 ist ja nun schon ziemlich sicher. Die Frage ist ob die TDP so hoch gegangen ist, weil NV unbedingt auf seine ursprünglich geplante Taktrate kommen wollte.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Mit Gewalt ( = Spannung) sind imho 1,7 GHz Hotclock möglich, evtl. bei den mal genannten 280 Watt TDP. Real würden dann grob Richtung 250 Watt in Spielen anliegen und das bei einer geschätzten Leistung auf dem Level einer HD5970, je nach Bench/Szene/CF-Skalierung drunter oder gar drüber. Sofern NV die A3 mit 1,7 GHz ohne exorbitante Spannungen befeuern kann. Bleibt die Frage ob man sich dagegen entscheidet und die HD5970 ziehen lässt oder die Brechstande ansetzt.

Alles Speku, ich lege mich nicht fest.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
Auf dein "stay tuned" kann ich gerne verzichten, wenn dasselbe rauskommt, wie mit den BFBC2-Beta Benches:D Ein einfaches "Nein" hätte es damals auch getan:) Kannst du wenigstens sagen, ob ihr bereits eine NDA unterschrieben habt? Bisweilen hört es sich ganz danach an:) Wäre auf jeden Fall schon mal gut zu wissen, ob Test-Samples im Umlauf sind...

EDIT: Bei 3DC lese ich gerade von einem angeblichen B1-Tape-Out von vor zwei Wochen. Weiss da jemand was genaueres?
EDIT: Ach y33h@ war 3 Minuten schneller :D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Bei den Beta-Benches wusste ich zu dem Zeitpunkt nicht, ob wir welche machen dürfen - aktueller Stand: wir dürfen nicht. Sorry.

Btw gibts Gerüchte (!), dass die GTX 400 gar mit einer B1 raus kommen, aber kA ob das nur ansatzweise korrekt ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

zum thema tesla: die ist natürlich niedriger getaktet. das ding ist zum 24/7/365 einsatz unter dauervollast konzipiert und zuverlässigkeit ist bei den karten ein muss. man kann also zumindest schon mal als sicher ansehn, dass die spielekarten höher getaktet sind ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ AwesomeSauce

Ob man ein NDA unterschrieben hat und wann es fällt, ist Teil des NDAs. Vll lässt Volker ja was fallen :lol:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die B1 Gerüchte fußen teils auf dem Wunsch, das der Launch im Sommer stattfindet.
Den nur durch einen B1 Tapeout lässt sich diese Annahme erklären.

Nur mit der Erklärung alleine wird die ursprüngliche Sommer-Aussage nicht bewiesen....
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wenn GTX470 und 480 auf B1 basieren würden, hätten wir schon lange was von Charlie gehört - denke ich...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Haha, der war gut. Charlie ist die Tage überraschend ruhig - scheinbar gibt's aktuell nichts schlechtes über Fermi zu berichten :p
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@y33H@
Genau darauf wollte ich hinaus:D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
Und Ail sollte ein Begriff sein.

Warum sollte man ihn kennen?

Also ich kannte den Kerl noch nicht. Und bei den letzten Aussagen die er da trifft, laesst er sich so dermassen viel Spielraum und Hintertueren, das er fast bei allem was kommen wird behaupten kann, er hat recht gehabt.


Ich hab mir echt mal die Muehe gemacht und hab dort mal ne Runde geschmoekert.
Was zum Geier soll so toll an ihm sein?

Das seine Einstellung positive Geruechte zu Nvidia kraeftig zu promoten und negative Geruechte zu Nvidia wegzulassen und auch Poster darauf hinweisst soetwas erst zu schreiben, wenn es sich als Tatsache herausgestellt hat, hier einigen gefaellt ist klar.
Wuerde ers bei positiven Geruechten auch so streng sehen, koennte man ihn vielleicht ernst nehmen, aber so?




Abgesehen davon.
Die 1,7GHz stehen doch nicht zum ersten mal im Raum. Voriges Fruehjahr auf der Analystenkonferenz war die von Nvidia gegebene Zielvorgabe 512 @ 1,7 GHz
Im Herbst sah man sich dann 448 @ 1,4 Geruechten gegenueber, die durch ein white paper eine gewisse Bestaetigung fanden und wohl aus den Problemen bei TSCM und NV resultierten.
Sollten diese Probs in der Zwischenzeit behoben wurden sein, spricht nichts gegen die damaligen Zahlen. Man hat sich ja auch ein halbes Jahr zusaetzliche Zeit gegoennt.
Fuer sowas braucht man keinen Ail.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ail weiß, wovon er spricht. Seit Jahren. Wenn du ihn nicht kennst, ist das deine Sache. Ihm aber anzuhängen, er promote nur positive und verschweige negative NV-Gerüchte aber ist Bullshit - da du ihn angeblich aber nicht kennst, lasse ich das mal unter den Tisch fallen.

EDIT
Weiter im Text aka on-Topic. Braucht man keinen Ail, braucht man auch keinen Charlie - letzterer bringt nur negatives und stellt es regelmäßig als NVs Untergang dar. Man braucht keinen Charlie um zu erkennen, dass es Probleme mit den Yields gibt, das Fermi Strom säuft und das er sich verzögert. Aber das Netz und die News und die Gerüchte und die Threads leben von solchen Leuten. Also seien auch Charlie sein Spielraum und seine Hintertüren gegönnt - auch wenn jeder wissen sollte, wo Charlie (mittlerweile) steht.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich hab einfach den Fred der hier verlinkt war rueckwaerts gelesen.
Was ich dort rausgelesen habe, hab ich geschrieben. Und handfestes hab ich nicht wirklich gefunden.

Falls es eine bessere "Lektuere" gibt bin ich fuer einen Link dankbar.


y33H@ schrieb:
und das er sich verzögert

Zumindest in dem Punkt seh ich das anders.
Waerend Nvidia die Massen in dieser hinsicht angelogen hat, hat er mit seiner Aussage (fuer die er hier von einigen fast gesteinigt wurde) recht behalten. Zufall? Vielleicht. Ist er deshalb glaubwuerdig? Vielleicht.
Fest steht aber, die Glaubwuerdigkeit von NV hat betraechtlichen Schaden abbekommen.


Wobei mir hier nicht klar ist, warum ich in ne Charlie Diskussion gezogen werde.
Das einzige wo ich ihn als "Referenz" genommen hab, duerften die TSCM Probleme gewesen sein. Und die betraffen sowohl NV als auch ATi.
Und das soetwas passieren kann hatten wir hier schon seit der HD 4770 in den Raum gestellt. (Wobei aber wohl keiner mit solch einer Heftigkeit gerechnet hat.)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben