News „Llano“-Desktop-Preis: 150 US-Dollar für das Flaggschiff

Natürlich Ralf musst DU den Beweis erbringen, der deine Behauptung untermauert, warum sollten "wir" (FB) dir dabei helfen.

Diese arrogante Gehabe kannst du gern zu Hause lassen und an stattdessen die Fakten auf den Tisch legen.


y33H@ hat sicherlich auch Besseres zu tun als deinen Erfüllungsgehilfen zu spielen.

Unverständlich.
 
Ralf555 schrieb:
Du darfst y33H@ von der PCGH fragen, er kann dir das bestätigen.
y33H@ ist eine Privatperson ...

Intel's IGP flimmert weniger als eine ein mobiler Barts-Ableger? Auch mit aktuellen (Q!) Catalysts ist das der Fall. Andererseits ist das angesichts der Intel'schen Unschärfe ("Balanced") und üblen Winkelabhängigkeit nur auf wenigen Texturen sichtbar. Wer's mal richtig flimmern sehen will, dem sei Intel "Qualität" empfohlen :p

EDIT
CB schrieb:
„Balanced“ ist mit Abstand die sinnvollste Option. Positiv zu erwähnen ist, dass es kaum ein störendes Flimmern gibt.
https://www.computerbase.de/2011-01/test-sandy-bridge-grafik/11/#abschnitt_bildqualitaet_in_spielen
 
Zuletzt bearbeitet:
deadohiosky schrieb:
Natürlich Ralf musst DU den Beweis erbringen, der deine Behauptung untermauert, warum sollten "wir" (FB) dir dabei helfen.

Augen auf. Der Beweis ist schon lange erbracht. Der Ball liegt bei dir das Gegenteil zu beweisen, was dir leider nicht gelingen wird. Was dort zu sehen ist, ist nämlich Fakt. Die Einstellungen sind bekannt, mehr Transparenz geht nicht. Wenn ihr so faul seid dies nachzustellen oder anderweitig euch zu bemühen, dann kann euch keiner mehr helfen.
deadohiosky schrieb:

Ja unverständlich diese Ignoranz. Ist es so schwer hinzunehmen, dass AMD stärker flimmert? Und einen Teil der Aussage habe ich noch gefunden, hier.
Aber das war es dann. Mehr gibt es nicht zu sagen. Mit dem stärkeren Flimmern müsst ihr selber zurechtkommen.

y33H@ schrieb:
y33H@ ist eine Privatperson ...

Intel's IGP flimmert weniger als eine ein mobiler Barts-Ableger? Auch mit aktuellen (Q!) Catalysts ist das der Fall. Andererseits ist das angesichts der Intel'schen Unschärfe ("Balanced") und üblen Winkelabhängigkeit nur auf wenigen Texturen sichtbar. Wer's mal richtig flimmern sehen will, dem sei Intel "Qualität" empfohlen :p

Ich habe beides verglichen, da ist nichts unschärfer. Zumindest weder im Filtertester noch im HL2 save (abgesehen von der Winkelabhängigkeit). Bei vergleichbarer Schärfe flimmert AMD deutlich mehr. Man könnte höchstens in den performance Modus schalten bei AMD, dann flimmert es ähnlich leicht, bei dann allerdings deutlicher Unschärfe. Die Filterung ist einfach großer Mist bei AMD.
 
Zuletzt bearbeitet:
Ralf555 schrieb:
Du darfst y33H@ von der PCGH fragen, er kann dir das bestätigen. Sorry, noch mehr Mühe muss ich mir bei so viel Ignoranz nicht machen. Im übrigen frage ich mich wo euer Beweis bleibt, dass Intels Filterung genauso oder stärker flimmert.
Warum soll jetzt ich mich bei nem Dritten - in diesem Fall y33H@ - nach den entsprechenden Links erkundigen, wenn du die PCGH als Nachweis für deine Argumentation aufgeführt hast? Ich wollte lediglich kurz in besagten Test rein schauen. Sonst kann ich deiner Argumentationskette ja gar nicht uneingeschränkt folgen.

Nächste Frage; warum soll ich dir nen Beweis für das Flimmern von AMD/Intel bringen, wenn ich die Behauptung gar nicht aufgestellt habe, Intel würde stärker flimmern?

Ich habe einzig und allein Bezug auf die AF-Blume genommen und dahingehend nach nem anderen Test als die AMD-Folie gefragt. Daraufhin wurde ich auf den CB-Test dazu aufmerksam gemacht, wo eben jene AF-Blume thematisiert wurde. Danach kam von mir aus der Richtung doch gar nix mehr.

Sry, aber du scheinst etwas durcheinander zu kommen...;)

Btw: Gibt es hier auf CB für komplette Zitate gern mal ne Verwarnung. ;)
 
Zuletzt bearbeitet:
Nein, Ralf. Auf dieses Niveau lasse ich mich nicht herab. Ich behaupte nicht, habe nicht und werde nichts Derartiges behaupten, daher brauche ich auch gar keine Beweise erbringen.

DU jedoch musst deine Behauptungen mit Quellen nachweisen, das hast du immer noch nicht getan.
Du "behauptest" es wäre Fakt, diese Fakten bleibst du uns aber weiterhin schuldig.


Und deine Beleidigungen werden auch nicht länger toleriert... der Zeiger lag bei mir schon auf dem "Meldeknopf".


edit:

Ich habe beides verglichen, da ist nichts unschärfer. Zumindest weder im Filtertester noch im HL2 save (abgesehen von der Winkelabhängigkeit). Bei vergleichbarer Schärfe flimmert AMD deutlich mehr. Man könnte höchstens in den performance Modus schalten bei AMD, dann flimmert es ähnlich leicht, bei dann allerdings deutlicher Unschärfe. Die Filterung ist einfach großer Mist bei AMD.


Sehe ich das richtig? Bezichtigst du jetz deine "Quelle" als Lügner?

Das wird ja immer bunter hier. (Und wahrscheinlich bald im Aquarium landen.)
 
Zuletzt bearbeitet:
Sollten wir in diesen Thread noch ein mal eingreifen müssen, dann ist endgültig Feierabend.
 
Zuletzt bearbeitet von einem Moderator:
lol was man sich doch über komische AF Blumen und Flimmern aufregen kann...

Die Diskussion ob AMDs GPU oder Intels GPU besser zum zocken ist, finde ich relativ hinfällig ^^

Im Normalbetrieb wird keiner anhand des TFT-Bildes sagen können ob ne AMD, Nvidia oder Intel GPU drin werkelt, und darauf kommt es an.

Wer Zocken will kauft was mit ner AMD GPU und wenn er dann noch dabei die ultimative BQ sucht eventuell eine Nvidia.
 
Krautmaster schrieb:
Im Normalbetrieb wird keiner anhand des TFT-Bildes sagen können ob ne AMD, Nvidia oder Intel GPU drin werkelt, und darauf kommt es an.
Standbild oder Bewegung? Mit geübtem Auge bei letzterem idR problemlos, vor allem Intel aufgrund der Winkelabhängigkeit. AMDs Q gegen NVs Q ist je nach Spiel einfach, bei vermatschtem Konsolen-Content schwierig(er). Aber das ist Offtopic.

@ Topic

Ein A8 sollte sparsamer, aber auch langsamer sein als X4 635 mit HD 5570 (zumindest GPU-seitig, Stichwort Takt und Bandbreite) für rund 130€. Allerdings braucht Llano DDR3-1866 für volle Leistung, solches RAM ist grob 2/3 teurer als DDR3-1333. Ist also auch eine Frage des Preises und der Boards (Platzbedarf einer dedizierten Grafikkarte) - für kleine oder HTPCs wäre so ein A8 oder gleich A4 sehr interessant.
 
Nehmen wir die goldene Mitte (1600) dann ist der Aufpreis verschmerzbar für die garantierte Leistungssteigerung von ca. 15% bei Spielen (laut anandtech-RAM-fps Vergleich http://images.anandtech.com/reviews/cpu/amd/llano/review/desktop/ddr3scaling-16x10.png).

Dabei muss auch bedacht werden, dass die Auswahl bei 1866er RAM und daher auch die Konkurrenz äußerst gering ist... das könnte sich durch AMDs Vorstoß durchaus in eine positive Richtung entwickeln.

Achso und "Value RAM" gibt es im 1600er und 1866er Markt auch nicht, wenn ich den "billigsten" (im Moment) 1866er RAM der gleichen Marke und Serie mit 1333er vergleiche, liegt der Aufpreis unter 50%.
 
Warum sollte ich keinen "Value RAM" kaufen? Das Zeug läuft auch. Und selbst +50% nur für RAM sind im Bereich von etwas über 100€ schon eine Ansage. Andererseits ist RAM derzeit spottbillig, da hat AMD Glück.
 
Keine Ahnung wieviel RAM du verbauen willst, aber ein 4GB RAM-Kit 1866er von exceleram (Black Sark) kostet ab 40 Euro, ein 1333er Kit der gleichen Serie gibts ab 28 Euro, 1600er 38 Euro. (Wie kommst du auf über 100 Euro?)

Das billigste 1333er ValueRAM (Kingston) Kit kostet 25 Euro.

Ich wollte auch nicht ValueRAM schlecht machen, es ging mir einfach um den "Fakt", dass es keinen ValueRAM in diesen Sphäre (jedenfalls im Moment) gibt.
 
100€ für die Plattform (CPU + GPU bzw. APU und dazu RAM). Value RAM bei DDR3-1866 wäre auch kurios, das Zeug ist halt Enthusiasten-Material. Weil brauchen tat's bisher keiner, außer OCer und die die, die 3% mehr Leistung wollten.
 
Der Aufpreis von z.B. einer GT520 auf eine GT430 liegt bei 6€. Dafür erhält man ca. 80% mehr Leistung. Der Aufpreis von 4GB DDR3-1333MHz zu DDR3-1866MHz liegt bei ca. 25€.

Ein SB G620T für 60€ sowie eine GT430 für ca. 42€ liegt bei ca.105€, was ein klasse Preis für ein einfaches Office-System ist, dass sogar als spieletauglich durchgehen könnte. Ein A8 soll ca. 130€ kosten und wenn man 1866Mhz nimmt, muss man dazu noch ca. 25€ drauflegen. Am Ende sind es knapp 50€ Aufpreis für bessere CPU- und schlechtere GPU-Leistung bei ähnlichem Verbrauch.
 
Interessant, es gibt noch keinerlei Verbrauchswerte zur Desktopversion, aber du weißt jetzt schon dass sie schlechter abschneiden wird als ein 2,2 GHz Dual Core Pentium auf Sandy Bridge-Basis zu dem es wiederum noch keinerlei Tests gibt, der aber weder AVX noch HTT noch Clear Video (geschweige denn Quick Sync) hat.

Dann gesellst du auch noch eine GT 430, einer der ineffizientesten Einsteigerkarten hinzu.:rolleyes:


Du solltest wirklich noch einmal die Spezifikationen von Llano studieren und dich zum Beispiel informieren was es mit UVD 3 auf sich hat und wie sich das Ganze mit Hilfe von Powergating auf die Verbrauchswerte auswirkt.
 
Du sagst, es gibt keine (Praxis-)Werte und verweist auf die Theorie - welche sich aber erst in der Praxis beweisen muss ... diese Argumentation funktioniert aber nicht, ihr beide könnt nichts beweisen.

Dank Powergating und Co. wird Llano (A8) im Leerlauf und zB bei Blu-ray auf dem Level einer SNB-CPU liegen, so viel sei gesagt. In 3D natürlich bei den 100W-Modellen über den erklärten i3-Gegnern (65W) bei besserer 3D-Leistung. Die Frage ist: Welche Grafikkarte benötige ich, um bei gleicher Leistungsaufnahme die Leistung der Llano-Grafikeinheit zu erreichen und was kostet mich das dann? Allerdings steigt mit einer dedizierten Karte auch die Leerlauf- und BR-Leistungsaufnahme, wobei das aus Kostenperspektive imo zu vernachlässigen ist.
 
Nun ja, ich kann mich darauf berufen, dass es schon Tests zu mobile Llano gibt, die Architektur (wie bei mobile Sandy Bridge und Desktop SB) dieselbe ist und genau diese Tests bestätigen, dass "Llano" die gesamte APU, bis auf den UVD 3-Bereich, "powergaten" kann. Da einem Pentium Quick Sync fehlt, muss also die dedizierte Grafik "ran" um z.B eine BluRay o.ä. wiederzugeben.

Dazu kommt, dass bei deutlich höherer Grafikleistung ein mobile Llano einem mobile SB+iGPU in Bezug auf Leistungsaufnahme überlegen ist... eine dedizierte Lösung verändert das natürlich, aber erhöht auch die LA. Daher ist mobile) Llano die effizientere Architektur... in Bezug auf Gaming und allgemein Multimedia. Ich behaupte daher, Desktop Llano ist ähnlich effizient.

battery-gaming.gif


http://techreport.com/articles.x/21099



Zu SB Pentiums gibt es bisher keine (nachvollziehbaren) Tests.
 
Zuletzt bearbeitet:
deadohiosky schrieb:
Da einem Pentium Quick Sync fehlt, muss also die dedizierte Grafik "ran" um z.B eine BluRay o.ä. wiederzugeben.
Was hat Quicksync (dekodieren) mit dem enkodieren einer Blu-ray zu tun? Das macht die HD Graphics.
deadohiosky schrieb:
Nun ja, ich kann mich darauf berufen, dass es schon Tests zu mobile Llano gibt, die Architektur (wie bei mobile Sandy Bridge und Desktop SB) dieselbe ist und genau diese Tests bestätigen, dass "Llano" die gesamte APU, bis auf den UVD 3-Bereich, "powergaten" kann.
Der UVD3 kann "powergaten", außer du meinst, bei Blu-ray "gatet" alles außer dem UVD3 - dann hast du freilich Recht.
deadohiosky schrieb:
Dazu kommt, dass bei deutlich höherer Grafikleistung ein mobile Llano einem mobile SB+iGPU in Bezug auf Leistungsaufnahme überlegen ist.
Das spezielle AMD-Notebook wird's so nie geben und sicherlich tot-optimiert.

Davon ab ist's unrealistisch, dass bei identischem Display, Akku etc. der Llano länger lebt in 3D - denn die integrierte Radeon zieht schlicht mehr Strom als die HD Graphics 3000 (sieht man Desktop-Vergleichen sehr schön). Das Compal-AMD hatte 58 W/h, die HPs nur 55 W/h und zudem die größere HDD. Zudem redet Techreport von 70 Prozent (!) Helligkeit und nicht beide 14-Zöller auf die gleichen Candela normiert - wer weiß, ob das Compal-AMD hier maximal weniger bietet als das HP mit dem i5?

Also bitte Vorsicht bei solchen Vergleichen.

deadohiosky schrieb:
Llano die effizientere Architektur... in Bezug auf Gaming und allgemein Multimedia. Ich behaupte daher, Desktop Llano ist ähnlich effizient.
Ich zitiere mich:

Dank Powergating und Co. wird Llano (A8) im Leerlauf und zB bei Blu-ray auf dem Level einer SNB-CPU liegen, so viel sei gesagt. In 3D natürlich bei den 100W-Modellen [liegt die Leistungsaufnahme klar] über den erklärten i3-Gegnern (65W) bei besserer 3D-Leistung.

Also gleichauf in 2D und bei BR und in 3D effizienter bei Perf/Watt, dafür CPU-seitig schwächer - was aber nichts Neues ist.
 
Zuletzt bearbeitet:
Oh Mann, jetzt habe ich es im vorherigen Post richtig genannt und kaum verwechsle ich Quick Sync mit Clear Video, wird es angeprangert.:rolleyes:

Aber ich muss mich trotzdem korrigieren, ich dachte Clear Video wäre auch zur Dekodierung wichtig, aber das war dann doch nur eine Bildverarbeitungsfunktion für mpg-2 Videos.


Und ja, ich meinte dass bei der BR-Wiedergabe die ganze APU bis auf den UVD 3 power gatet und die Wiedergabe realisiert: der UVD 3 kann natürlich auch power gaten... war etwas mysteriös geschrieben.


Wenn man von diesen Voraussetzungen und der von dir unterstellten Inkompetenz der TechReport-Redakteure ausgeht, warum sollte man überhaupt noch Vergleiche jeglicher Art machen? Bei anandtech hat das K53E auch eine 640 GB Momentus... mit max 5400 RPM pro Minute. Was wiegt "schwerer" eine sich schneller drehende Festplatte oder eine Festplatte mit höherer Kapazität (und darüber hinaus von der gleichen Serie und Hersteller) und (höchstwahrscheinlich) auch nur einer Scheibe.

Wieviel macht eine Festplatte mit einer Scheibe und höherer Kapazität aus, ist das überhaupt messbar?


Ähm, das von dir zitierte ist genau das gleiche Fazit das ich gezogen habe, beim Vergleichen der bis jetzt eher spärlichen Tests (zu mobile Llano, bei denen leider die LA meist zu kurz gekommen ist).

Aber bei dem inkompetenten Scott Wasson muss ja dann eine besonders komische Anomalie/ Messfehler aufgetreten sein wenn sie ein Notebook als Referenz genommen haben um die Helligkeit einzustellen und dann fast 50% mehr Batterieleistung herausgekommen ist.
 
Ich unterstelle keine Inkompetenz, das interpretierst du. Ich sage nur, Techreport schreibt 70 Prozent und macht keine Angaben zu den absoluten Candela - das ist nicht Inkompetenz, sondern eine fehlende Information. Also lege mir keine Aussagen in den Mund, die ich nie getätigt habe! :mad:
deadohiosky schrieb:
Oh Mann, jetzt habe ich es im vorherigen Post richtig genannt und kaum verwechsle ich Quick Sync mit Clear Video, wird es angeprangert.
Ich prangere es nicht, ich stelle es nur richtig. Mein Satz enthält keinen Vorwurf oder dergleichen. Also ruhig Blut :rolleyes:
 
Ich finde die Entwicklung der Unterhaltung recht interessant. Man vertieft sich immer mehr im Detail, was mehr oder weniger zeigt, dass Llano und i3 ziemlich ausgeglichen sind. Stellt euch vor, Llano und I3 wären bei allen Ergebnisse ident, welche CPU würde man dann nehmen ? die Marke die einem besser gefällt ^^ ?
Klar ist es genauer, wenn man die Candela vom Monitor mit in die Bewertung nimmt, doch seien wir uns ehrlich, wir sind hier bei Dimensionen die beinahe zu vernachlässigen sind. Das ist in der Physik nicht anders, dass man bestimmte ideale Situationen annimmt und dass es Schwankungen gibt. Ein Computersystem, dass sagen wir 5 % schneller oder langsamer ist, ist für mich persönlich gleich schnell, denn ich werde keinen unterschied merken. Ob ich mit einem Notebook 10 min länger surfen kann als mit einem anderen, ist mehr oder weniger auch schon egal ^^

Und ja ich persönlich bin momentan vom A4 begeistert, wie bereits erwähnt, dualcore, 160 shader, 65 watt tdp, turbo 2.0, power gating um 60 euro ca
btw lässt sich der E-350 noch mal gut optimieren was den Verbrauch angeht.
Somit lässt sich Llano bestimmt genauso gut optimieren.
 
Zuletzt bearbeitet:
Zurück
Oben