News Auch AMDs 28-nm-Produkte für Notebooks geleakt?

Komisch nur das sich wieder einige ca. über 1 über die hohe TDP für Desktop Replacement/Gaming Notebooks beklagt. Bei der News zu den 28nm Nvidia Gerüchten gabs nur 1-2 negative Kommentare dazu bei mehr Meldungen. Sagt viel aus über die User des Forums... Naja wems gefällt.
 
AMD hat ja nun auch Lianos auf den Markt geworfen,da frage ich mich natürlich, weshalb immer noch diskrete
Lösungen weiterentwickelt werden.Die angestrebte 28 nm GPU kann ja nur bedeuten,das man NV dieses Feld
für Notebook GPUs nicht einfach überlassen will,obwohl ich vermute,das AMD auch darauf verzichten könnte,
wenn die BD Architektur+GPU den Markt erreicht.Außer vielleicht im Highend Bereich.Eigener VRAM wird
da für die GPU wohl noch für absehbare Zeit ein Muß bleiben.
 
Zuletzt bearbeitet:
Vielleicht gibts ja irgend wann mal größere Notebooks als 17", für 20" Noteobooks kann ich mir die 80Watt GPUs schon vorstellen. Die Kühllösungen werden ja auch immer besser, wenn ich mir da das neue Asus Republic of Gamer Notebook anschaue mit 1,6 Sone und dicker GPU passt das schon. Hauptsache leise, die Kühlung wird ja auch ständig verbessert.

4GB Vram sind wohl overkill, 2GB reichen im Notebook noch aus. Bis jetzt kommen sie grad mal an Desktop HD 5870/6870 Rohleistung ran und genau da rentieren sich erst 2GB Vram. Von dem her dauert das noch bis man mehr braucht.
 
Zuletzt bearbeitet:
zazie schrieb:
Muss man eine Tabelle ernst nehmen, in der es WIMBELDON heisst ? Kann man es ?

War auch mein erster Gedanke, aber scheinen wohl nicht viele zu bemerken. Die meisten würden wohl nichtmal was merken, wenn da Wombeltown stünde.
 
die.foenfrisur schrieb:
also wenn das stimmt, dann hat:
nvidia max. 75W und 20k im vantage mit 2GB
ati max. 80W und nur 16k im vantage mit 4GB?

Hatebreeder91 schrieb:
Stand bei nVidia Vantage dabei? War nur ne Vermutung der Redaktion.
Könnte ja sein, dass nVidia 06er Marks angibt und AMD Vantage, oder sie nutzen einfach ein anderes Preset.
Und vermutlich sind es eher VLIW4, da diese erstmal in allen Segmenten ankommen wird, bevor die nächste Architektur kommt.

Also wenn meine Vermutung bei Nvidia stimmt (Shrink bringt nun mal nur geringeren Verbrauch oder Leistungssteigerung und TPD bleibt ja gleich), dann kann es durchaus sein das die GTX580M 28nm Refresh im 3DMark Vantage 20.000 Punkte erreicht. Und wäre hier nun ne schwache Leistung von AMD sofern kein anderes Preset verwendet wurde.

@zazie/Kollo das habt ihr ja schon angemerkt, ob das ganze überhaupt der Wahrheit entspricht is natürlich Voraussetzung. Steht ja sogar in der News, dass der Quelle nicht 100% zu trauen ist.

EDIT: Vermutlich hat die GTX580M aber weiterhin 100W und behält nur die Performance-Krone mit 20k, AMD bliebe mit 80W und 16k hinten. Wenn Nvidia wirklich nur 75W bei der neuen N13E-GTX -also genau so viel wie die N13E-GT1 die 5k langsamer ist- verbraucht, dann Hut ab!
 
Zuletzt bearbeitet:
@Kollo und zazie:
Das zeigt uns nur, dass ihr kaum Ahnung vom Prozessorgeschäft habt. Ein saublöder Schreibfehler in einer AMD-Marketingfolie ist so etwas wie ein Wasserzeichen. Großartige Marketingfolien und Ankündigungen von AMD ohne Schreibfehler sind meist Fakes.

Gruß FatFire
 
Ich weiß gar nicht, warum sich jetzt alle über 80W Mobilgrakas aufregen, wo wir doch schon bei der aktuellen Gen bei 100W+ angekommen sind. Ihr scheint ja echt hinterm Mond zu leben.

@Towelie
Könnte, hätte, müsste, wäre, sofern, vielleicht, vielleicht aber auch nicht... *gähn*
 
Lonely Shepherd schrieb:
@Towelie
Könnte, hätte, müsste, wäre, sofern, vielleicht, vielleicht aber auch nicht... *gähn*

Nicht selbst verwendet: Könnte
Gar nicht in einem Kommentar oder Zitat vorkommend: hätte, müsste, vielleicht (na ok vl. ^^), vielleicht aber auch nicht
Einzig zutreffend: wäre, sofern

Tja, wenns dir ned passt, dann lies keine Kommentare zu einer Nachricht die in die Kategorie "Gerüchteküche" fällt! Sry, kein Verständnis für sinnloses Kritisieren! :rolleyes:
 
Zuletzt bearbeitet:
Hmm seltsam, bei mir werden die "" vor und nach ,Könnte, hätte, müsste, wäre, sofern, vielleicht, vielleicht aber auch nicht... *gähn*, gar nicht angezeigt. Man wird aber auch nur noch verarscht beim Monitorkauf oder liegt es etwa an der Graka?

Schlimm, dass man heutzutage vielen haargenau erklären muss, wie man etwas meinte. Wetten den ersten Satz des Posts verstehst du auch wieder nicht.

Btw. eine Vemutung mit vielen Unbekannten zu einem Gerücht und das dann auch noch als unkritisierbar hinstellen. Lass mich raten: Dich im Umkehrschluss drum zu bitten in einem öffentlichen Forum doch keine Vermutung mehr zu Gerüchten aufzustellen, wenn diese doch ohnehin nicht kritisiert werden dürfen, ist doch jetzt sicherlich ein Affront meinerseits, stimmts?
 
Wow, bist du witzig, und dann noch die Weisheit mit dem Löffel gefressen, meinen Geisteszustand beurteilend, mit simplen Wahrheiten umgehen könnend und keinesfalls maßlos übertreibend - mein Forum-Held 2011!

Worauf ich hinaus wollte, dass es keine Sau interessiert, dass du meine übrigens durchaus plausible Vermutung(en) langweilig findest - behalt's für dich! Zudem geht es wie gesagt um eine Vermutung zu einem Gerücht! Natürlich kann man auch mich kritisieren, hab ich kein Problem mit, aber so was ... (muss ich's dir echt no genauer erklären?) Hättest du konstruktiv meine Vermutung kritisiert - hätt ich nichts dagegen gehabt, im Gegenteil mich gefreut, vl. Infos ausgetauscht etc.

Zu dem ersten Satz: das hat nichts mit hinterm Mond leben zu tun: Auch wenn einem bewusst ist, dass Desktop-Karten gar über 300W (das dann noch vl. im 4-way SLI) für sich beanspruchen wird man -im Zuge der Erderwärmung, steigenden Stromkosten, Temperatur der Wohnung im Sommer, man will generell gern seine Meinung kundtut oder w.a.i.- doch trotzdem diese schlechte Entwicklung kritisieren dürfen, oder hast nur du einen Anspruch darauf bzw. darf nur sinnlos kritisiert werden?

Wie gesagt - kein Verständnis für SINNLOSES KRITISIEREN!
 
Zuletzt bearbeitet:
Towelie schrieb:
Worauf ich hinaus wollte, dass es keine Sau interessiert, dass du meine übrigens durchaus plausible Vermutung(en) langweilig findest - behalt's für dich!
Worauf er hinaus wollte, dass es keine Sau interessiert, dass Du irgendwelche eventuell plausible Vermutungen ohne vernünftige Quelle oder sonstige Grundlage entwickelst - behalt's für Dich!

Vielleicht verstehst Du es ja jetzt. Einer mit kruden Theorien ohne vernünftige Datengrundlage macht genau so viel Sinn wie ein Kritiker des gleichen. Aber der eine Quatschkopp ruft den anderen Quatschkopp ja erst auf den Plan.

Und wer sich einredet, alleine durch einen Shrink (keine neue Architektur!) 25% Energie einsparen und mehr als 35% Leistung hinzu gewinnen zu können, der verkauft auch seine Oma dafür am Ende sagen zu können "Dann ist das von AMD aber eine schwache Leistung".

Gruß FatFire
 
Das ist ja ansich ok. Nur:

Ich beziehe mich auf die Daten in der News, wenn die stimmen ist das durchaus plausibel! Wenn nicht, dann ist der ganze Thread sowieso zum vergessen.

Und wer sich einredet, alleine durch einen Shrink (keine neue Architektur!) 25% Energie einsparen und mehr als 35% Leistung hinzu gewinnen zu können, der verkauft auch seine Oma dafür am Ende sagen zu können "Dann ist das von AMD aber eine schwache Leistung".

Das habe ich NIE behauptet, sondern: bei gleicher TDP, dafür unbekannt höheren Takt, mehr RAM und Speicherbus, ev. mehr Shader resultieren in 25% mehr Leistung. Also übertreib nicht auch noch! Und wenn AMD bei gleichen Einstellungen mehr Watt verbraucht aber weniger Leistung bietet ist das nun mal keine Top-Leistung! Ich wollte mit dem ganzen ja auch nur klären was diese News im einzelnen bedeuten kann! Nicht mehr, nicht weniger!

EDIT: Wenn das jetzt nicht erlaubt ist, dann sry, schreib ich meinetwegen nen Mod an, dass er meine Beiträge zu den beiden Themen löscht.
 
Zuletzt bearbeitet:
Was soll denn daran nicht erlaubt sein? Endlich mal eine herzhafte Diskussion wo nicht gleich einer herumheult und auf den Melden-Button klickt.

Towelie schrieb:
Das habe ich NIE behauptet, sondern: bei gleicher TDP, dafür unbekannt höheren Takt, mehr RAM und Speicherbus, ev. mehr Shader resultieren in 25% mehr Leistung.
Stimmt, Du direkt hast das nicht behauptet. Aber nimmt man die Gerüchte und Folien ernst, dann soll das nächste Flagschiff nVidias im Mobilbereich 70-75W TDP aufweisen (GeForce 580M aktuell 100W), daher 25% weniger Energie (jaja, ich weiss, TDP != Energieverbrauch, aber es gibt nun einmal im Moment keine besseren Werte) und 20000 zu aktuell 14500 Punkten im 3D Mark ergeben über 35% mehr Leistung. Das kann hinten und vorne nicht stimmen. Daher ist es wahrscheinlich pure Zeitverschwendung, sich noch mehr Gedanken um diese Folie zu machen. Aber eben diese Folien versuchst Du in Deiner Theorie als belastbare Informationgrundlage zu verwenden. Deswegen die Reaktion mit *gähn* von Lonely Shepherd, weil sowas höchstens als Diskussions-Zündstoff unter Markenlagern taugt.

Die Werte von AMD klingen realistisch, gut und mit einem Shrink von 40 auf 28nm auch locker erreichbar. Sollte entgegen jeder Vernunft nVidia wirklich mit so Hammerwerten kommen wie auf den Folien angekündigt...ja dann kann man sich freuen. Dann hoffe ich nur, dass die auch Low-End bis Mid-Range mal wieder ordentlich bedienen, damit ich auch was davon hab :)

So lange nicht explizit dabei steht, welches 3D Mark und Preset verwendet wurde ist das allerdings alles Pillepalle. Dann kann ich nämlich auch sagen: "nVidia hat wahrscheinlich 3D Mark 06 benutzt und AMD 3D Mark 2011, also ist AMD voll geil und nVidia hat nicht gut gearbeitet". Ein reines Fanboyinstrument.

Gruß FatFire
 
Okay, da geb ich dir recht. Es ist alles sehr Wage und geht davon aus, dass beide Vantage mit dem gleichen Preset benutzen. Aber das sind nun mal die Infos aus der News, mehr gibt's momentan ned. Hab auch mal ein paar gute NB-Hersteller wie MSI, Acer, One, Schenker angeschrieben ob sie denn nächstes Jahr Notebooks mit diesen Shrinks verbauen werden bzw. wissen ob das so stimmt, aber die wissen noch nix genaues/rucken damit nicht raus und dass Nvidia/AMD das jetzt schon offiziell bestätigt wage ich zu bezweifeln also ... bleibt es abzuwarten.

EDIT: Und sry wenn Lonely Shepherd das so gemeint hat, hätt er aber auch klarer ausdrücken können. So wie es da steht (in 2von2 Posts!) scheint ihm nur meine Vermutung zu langweilen.

Und ich hab mich vor allem auf die GTX560M also N13E-GS1 bezogen die realistisch ist, die GTX580 wäre mit weniger TDP und soviel mehr Leistung doch ein richtiger Hammer. Bzw. hast du auch recht dass was mit den Watt der GTX580M nicht stimmt, hab nämlich nicht bedacht, dass die 100W hat (womit ich meinte, dass TDP gleich blieb), die Grafik aber nur 75W anzeigt und ich dem 75W 20k Nvidia 80W 60k AMD Vergleich zugestimmt hab. Ich würde sogar eher vermuten, dass die 75W ned stimmen sondern 100W bleibt, die 20k Vantage dann mehr Sinn ergeben und AMD dann nicht so schlecht darsteht, nur ned die Performance-Krone hat. Wissen kann man's noch nicht. 75W (TDP :() und 20k wären natürlich ein Traum ....

Habe jetzt auch beide Ursprungs-Postings entsprechend editiert - is hoff. nun etwas verständlicher?
 
Zuletzt bearbeitet:
Zurück
Oben