Neue, seriöse Bulldozerbenchmarks - eure Meinung?

Nach den neuen Benchmarks - wie ist deine Vorabmeinung zum Bulldozer?

  • Die Werte sind Quatsch, der Bulldozer wird viel besser

    Stimmen: 22 26,2%
  • Ganz so schlecht wird er nicht. Eher so ein Mittelmaßdasein wie alle AMD CPUs seit dem Core 2 Duo.

    Stimmen: 50 59,5%
  • Bulldozer wird ein Epic Fail, vielleicht noch ein größerer als der Phenom I.

    Stimmen: 12 14,3%

  • Umfrageteilnehmer
    84
Kasmopaya schrieb:
Grad auf so was leg ich keinen Wert. Synthetische Benchmarks sind nicht optimal, zumal seit Athlon 64 v. Pentium 4 klar ist, das Intel bei solchen Tests besser abschneidet. Bei den Games war aber der Athlon 64 dann vorne.

Hätten sie zb. Dirt 3 getestet das mit 6 Kerner viel schneller läuft als mit 4, dann hätte man sagen können wo der Bulldozer steht. Ich hoffe das wie zur letzten neuen Architektur(A64-2003) der Bulldozer vor allem bei Games voll aufdreht. Es gibt bereits Indizien wie das wiederbelebte FX und das die Desktop CPUs zuerst kommen und dann erst die Server. Ergo sind die Gamer diesmal wohl die Hauptzielgruppe. Sind aber nur Vermutungen...


Mmmmhhh ... also ich freue mich immer, wenn ich synthetische Benchmarks wie SPEC oder den LINPACK sehe, denn für unser Anwendungsgebiet einer CPU, nämlich rechnen, rechnen, rechnen sind diese Vermessungen stets aussagekräftig.

Es kommt auf den Anwenungszweck an und natürlich, ob der Compiler, der die Sofware übersetzt hat, auch in seinem CODEGEN die speziellen Eigenschaften einer CPU unterstützt.

Im Falle des SMT war das auch für die Betreibssystembauer eine Herausforderung, hier eine SMT-logische CPU nicht als eine "Ganze" zu sehen, sondern Vorkehrungen im "Scheduler" zu treffen, der das auch berücksichtigt.

Jeder hat so seine eigenen Vorstellungen eines Prozessors. Aber wenn ich mir mal die Entwicklung der letzten Jahre ansehe, dann fällt mir auf, daß zunehmend der Spielzeugmarkt das diktiert, was in Forschung und Wissenschaft zur Anwendung kommt. Ich muß heute den gleichen Müll in einem "Hochleistungsrechner" einbauen, den meine Kinder in ihrem Spiezeug haben - bis auf marginale Änderungen und einem weitaus größeren Loch im Budget des Steuerzahlers im vergleich zu meiner Haushaltskasse. Das war vor 15 Jahren noch anders. Deshalb ist es legitim, daß eine "neue" Intel-x86-Architektur, die, gemessen in geologischen/kosmischen Maßstäben wirklich brandneu ist, die seit nunmehr über 30 Jahren immerzu nach selbigem schlechten Muster repliziert wird, auch mit "synthetischen" Benchmarks gefüttert wird.
Zudem haben synthetische Benchmarks den Vorteil und zeigen, wie leistungsfähig eine CPU wirklich ist. Sie ausschließlich mit veralteter Software der Jetztzeit zu testen, vor allem mit dem Schrott der Spiele, ist insofern ziemlich reizlos und etwas naiv, da gerade "aktuelle" Software, die von den Windoof-Anwendern bekanntlich im Binärformat appliziert wird, zumeist mit einem Compiler übersetzt wurde, der neue eigenschaften einer CPU gar nicht nutzen kann. Wenn man unter UNIX (und Linux) Software selber baut und optimiert und übersetzt, kann man bei Vorhandensein eines Compilers, der die neue CPU "kennt" und dessen Codegen auch entsprechenden Binärcode erzeugen kann, immer einen Vorteil herausholen! Zumindest hatt ich in den vergangenen Jahren damit immer sehr intensive "Aha-Erlebnisse".
 
Mit den Vorabbenches wäre ich vorsichtig. Ich erwarte aber auch eine CPU die es multithreaded Anwendungen etwas vor einen 2600k schafft, mit der pro Takt und pro Kern Leistung aber weiterhin hinter Intel her hechelt. In Spielen wird man mit dem hohen Turbo Takt etwa gleich auf sein, mehr aber auch nicht. Also so ein mittelprächtiges Teil das eigentlich kein Mensch mehr braucht da man bei Intel schon seit nem dreiviertel Jahr gleiches kaufen kann.

Wünschen tue ich mir dagegen das AMD mal wieder richtig was rockt, glaube aber nicht mehr wirklich dran ;)
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Mit den Vorabbenches wäre ich vorsichtig. Ich erwarte aber auch eine CPU die es multithreaded Anwendungen etwas vor einen 2600k schafft, mit der pro Takt und pro Kern Leistung aber weiterhin hinter Intel her hechelt. In Spielen wird man mit dem hohen Turbo Takt etwa gleich auf sein, mehr aber auch nicht. Also so ein mittelprächtiges Teil das eigentlich kein Mensch mehr braucht da man bei Intel schon seit nem dreiviertel Jahr gleiches kaufen kann.

Wünschen tue ich mir dagegen das AMD mal wieder richtig was rockt, glaube aber nicht mehr wirklich dran ;)

Traurig bei AMD ist, daß deren Ideen und Ansätze im Groben immer sehr gut scheinen, sie aber damit entweder zu früh sind und es nicht technisch umzusetzen imstande sind oder aber einfach die Ingenieure fehlen, die das können. Intel hat dann ca. 12 bis 16 Monate späte Selbiges oder Ähnliches auf der Pfanne. Ob Intel nun einfach nur konsequent eine "kanonische" Idee, die in beiden Lagern vorlag, so umsetzt, wie es technisch und wirtschaftlich günstig ist oder ob Intel einfach nur "nachbaut", kann man eigentlich nicht sagen. Da Intel als weltgrößter Chiphersteller ja an diversen Designs arbeitet und darüberhinaus ein echtes 64Bit Design in der Schatulle hat, glaube ich eher, daß bei Chipzilla eiskalt kalkuliert und mit der Gier und dummheit des Massenmarktes gerechnet wird. Intel hat bis auf daß es gar nicht mehr anders geht das Design des Speicherbusses von FSB auf IMC umgesetzt - aber erst, als AMD begann, wirklich ernsthaft Marktanteile von Intel abzuzwicken. Ich "glaube", Intel schätzt den Markt korrekt ein. Nicht der bartlose Spielfritze ist die treibende Kraft, es sind die langfristigen Vertragspartner und sicheren Großeinkäufer! Komisch, daß bei Intel immer dann einschneidende Architekturverbesserungen eintreten, wenn wirklich große Investitionen und Pläne anstehen - wie zum Beispiel am Sandia National Laboratory etc.

Ich bin kein Freund Chipzillas, aber im Moment sehe ich mein Geld besser bei Intel aufgehoben.
 
Felixxz21 schrieb:
Abend,

frag mich grad warum das bei CB garnicht kam.

Wir sind es schlichtweg Leid jedes Mal über das vermeintlich nächste seriöse Projekt zu berichten, wenn da eigentliche Produkt längst hätte in unseren Händen liegen sollen. Und da es sowieso jedes Mal in Flamewars ausartet, lassen wir es einfach. Irgendwann dies Jahr hoffentlich noch, testen wir den dann ja auch mal selber. Vorher glaub ich sowieso gar nix mehr.
 
Jeder hat so seine eigenen Vorstellungen eines Prozessors. Aber wenn ich mir mal die Entwicklung der letzten Jahre ansehe, dann fällt mir auf, daß zunehmend der Spielzeugmarkt das diktiert, was in Forschung und Wissenschaft zur Anwendung kommt.
Nicht wenn du vom Planeten Erde sprichst: Athlon 64bit und HT 2 teure Server Features; Phenom I nativer Quad -> Server; Core i7 teure Server Platform die ganze Architektur war eigentlich für Server optimiert; GT200/Fermi > extrem auf Server zugeschnitten; HD 7000 Server GPGPU Einsatz.

Bulldozer wäre die erste CPU seit langem(Core 2) die bei Spielen ab geht wie sonst was und im Server Bereich nicht so. Wenns denn so kommt.


Zumindest hatt ich in den vergangenen Jahren damit immer sehr intensive "Aha-Erlebnisse".
Synthetische Benchmarks haben den Nachteil das sie meist einen Teil der CPU stark belasten, den anderen Teil aber meist komplett brach liegen lassen. Was solche Tests sehr speziell werden lässt.

Man kann auch nicht sagen das AMD GPUs die schnellsten sind, weil sie bei Furmark vorne liegen. Die theoretischen Werte kommen in der Praxis dann gar nicht rüber.

Games haben die Angewohnheit alles, jeden Teil der CPU zu belasten, zb. auch die Speicherverwaltung also den Ram. Noch dazu ist seit neusten die PCIe Schnittstelle eng mit der CPU verbunden bzw. die Lanes in direkt in die CPU gebaut. Spiele wie Anno 1404 sind also sehr gut geeignet um eine CPU zu testen. Ohne irgend welche Optimierungen befürchten zu müssen.
 
Zuletzt bearbeitet:
Ich hoffe sehr für AMD, dass der Bulldozer etwas besser wird. Speziell in den Multithreaded Anwendungen, wo er eigentlich seine Stärken ausspielen kann.
 
Klar wird der Multi-Threaded gut sein, daran zweifelt man ja auch kaum. Doch was in in Anwendungen die max vier Threads unterstützen oder gar nur zwei. Davon gibt es halt noch mehr als genug - schlichtweg die Mehrheit in der normalen Welt, da ist nicht wirklich viel auf acht Threads optimiert. Bulldozer für Server stört das weniger, denn dort ist die Infrastruktur mehr auf viele Threads ausgelegt, aber im Desktop wird das eine ganz andere Geschichte.

btw: "At this time, the press NDA disclosure is planned for the 06 Sept while the retail launch is planned for October, between 03 and 15. The exact date is not yet defined, but it's really October." (XS-Forum)
Da wir noch kein NDA oder irgendwas an Infos haben, zweifle ich mal sehr stark am 6. September als Press Launch. Oder gibt es selbst nen Paper-Press-Launch? Wäre mir neu^^
 
Bin zurzeit im Urlaub. Aber nach meinem Urlaub werde ich mir einen neuen PC zusammenbauen (zumindest die gröbsten Teile (CPU, Mainboard,Ram,HDD)

MMn lohnt es sich nicht mal auf den Bulldozer zu warten - so hart das auch klingt. Der BD wird in seiner Leistung relativ bescheiden sein (gerade in Single/Dual Core Anwendungen).
Der BD wird in ein paar, für den Ottonormaluser eher unwichtigen Tests schneller sein, jedoch den Großteil der Tests und gerade in den allermeisten Games schlechter als ein X6 dastehen (Watt/FPS Leistung).

Ergo wird AMD die Teile über den Preis verkaufen. D.H. das Topmodell wird auf jeden Fall günstiger als der i7 2600K sein. Aber eben auch in den meisten Anwendungen leistungsschwächer - bei mehr Energieverbrauch.

Hinzu kommt das Problem mit dem Mainboards. Die zurzeit einzigen Mainboards die den BD unterstützen sind kaum bis gar nicht günstiger als die Intel Pendants (P67/Z68).

Doch es gibt da ein großes Problem:
Während man auf den meisten Z68/P67 Boards die neuen Ivy Bridges CPU´s mit 22nm setzen kann, kann man bei AMD gerade mal die rauskommenden BD der ersten Generation in 32nm einsetzen. D.H. die BD der 2. Generation wird man sich wieder ein neues Board kaufen müssen.

Noch was zur Verspätung des BD´s:
Kein Hersteller auf der Welt nimmt leichtfertig eine Verschiebung des Releasetermins hin. Da muss es so eklatante Fehler im Design und/oder in der Fertigung geben, dass der Schaden eines zu frühen Release noch höher wäre ausgefallen, als mehrere Wochen weiterhin an dem BD zu feilen. AMD verliert so täglich eine menge Geld.

AMD wird bewußt sein, das der Bulldozer nicht der Überflieger ist, wie ihn viele gerne hätten, und mMn geht es inzwischen einzig und allein und Schadensbegrenzung und schon lange nicht mehr um den Kampf um die beste CPU.

Das einzige was ich jetzt noch hoffe ist, das es kein absolutes Desaster für AMD wird. Aber leider zeigt die "Chipsatz-Geschichte" das sämtliche Verspätungen (fast) immer Produkte mit einem unbefriedigten Endergebnis herausgebracht haben.

Aber am Ende gilt wie immer - abwarten und Tee trinken. Wenn das NDA fällt wissen wir´s endgültig.
 
Zitat:
Aber leider zeigt die "Chipsatz-Geschichte" das sämtliche Verspätungen (fast) immer Produkte mit einem unbefriedigten Endergebnis herausgebracht haben.

Betonung auf fast den beim FX Hammer wars ja ganz anders der hat die Intels damals in der Pfeife geraucht.:p
 
@Kasmo

Finde das Cinebench ein optimaler Benchmark ist, wenn man nicht die Zeit oder den Anspruch hat so wie CB zu testen.
Er zeigt ein relativ realistisches Leistungsbild und profitiert von jedem Kern, auch SMT (bis zu 64 Threads). Somit wird Bulli hier maximal ausgereizt und auch ein 2600K mit SMT wird komplett ausgenutzt.
Wenn Bulli hier schon hinter einem 2600K liegt, wie dann erst in andere Anwndungen?

Ein 1100T liegt z.B. im Cinebench vor einem 2500K, eben wegen 6 Kernen. Overall ist aber der 2500K 20% schneller.


Dass Bulli für Gamer ist, ist genau die falsche Aussage. AMD hat die CPU immer als Server-CPU vermarktet und auch daraufhin optimiert (viele Kerne, FMA 4, PowerGating). AMD wollte mit dieser CPU mehr Anteile im Servermarkt gewinnen um dort wieder Geld zu machen, was sie unbedingt brauchen.

Fürs Gaming ist er nicht wirklich gedacht, dort zählt IMO hauptsächlich die IPC und dass man 4 Kerne hat.
Selbst ein 6 Kerner kann hier nur selten aufdrehen, ein 8 Kerner dürfte die meiste Zeit brach liegen und eben nur 2-4 Threads nutzen.

Motkachler schrieb:
Betonung auf fast den beim FX Hammer wars ja ganz anders der hat die Intels damals in der Pfeife geraucht.

Und das tat AMD damals überhaupt nicht gut. Sie waren unheimlich stolz, dass sie mit dem riesen Chipmonopolisten den Boden wischen. Somit hat man die Neuentwicklungen auf ein Minimum zurückgefahren (Phenom II X6 aus dem Jahre 2010 basiert immernoch großteilig auf dem Hammer) und haben sich zum kauf von ATi hinreißen lassen, was viel zu groß für sie war.

Das war glau ich ihr größter Fehler, denn danach ist ihnen einfach die Kohle ausgegangen. Und obwohl die APUs, auch wirtschaftlich, vielversprechend sind, scheint sich das über die Jahre gerächt zu haben, weil man nicht genug in Forschung investieren konnte.
 
Zuletzt bearbeitet:
Kann der Geld herzaubern? :D
Ich hoffe mal, dass der vernünftig ist und AMD endlich mal in die richtigen Bahnen lenkt (großer Einstieg im OEM und Servergeschäft).

AMD kann nur hoffen, dass ihre APUs weiterhin so einschlagen und sie dadurch wieder massig Geld in Kassen bekommen, um wieder zu investieren. Seit dem K6 bis 2006 war AMD immer gut aufgestellt, ham immer weiterentwickelt und waren immer auf Höhe oder sogar über Intel. Seit dem ATi-Kauf kamen aber nurnoch laue Aufgüsse längst veralteter Sachen, eben weil die Kohle gefehlt hat.
Mal schauen, jetzt muss erstmal Bulli was reißen um die Servergeschichte abzudecken. Um OEM kümmern sich dann die APUs :D
 
Eisenfaust schrieb:
Die Gerüchteküche mixt immer Phantastisches mit Tatsächlichem, bevor ich mich absolut festlege, warte ich auch lieber den offiziellen Start des Bulldozers ab sowie durchdachte Vermessungen. Herr Stiller des Magazins c't ist in dieser Disziplin ein echter Experte und ich freue mich schon auf seinen Kommentar.


Herr Stiller und Objektiver Test bezüglich AMD ? selten so gelacht. der nutzt doch jede Möglichkeit AMD schlecht dazustehen lassen.

http://www.heise.de/ct/artikel/Prozessorgefluester-1320643.html


AMD, so hört man, will seine Bulldozer-Prozessoren für Server eine Woche nach den FX-Versionen, also am 26. September herausbringen. Das ist zwar etwas später als ursprünglich geplant, aber früh genug, um wenigstens mal ein paar Monate Vorsprung vor der Konkurrenz zu haben. Schließlich bieten die dicken Planierraupen nicht nur bis zu 16 Integer-Kerne, sondern sie sind auch die ersten AVX-tauglichen, echten Serverprozessoren für mehr als einen Sockel. Schon lustig, dass hier mal der Nachbauer schneller ist als das Original.
 
Ich denke, dass der Bulldozer sich im Mittelfeld platzieren wird, mit Intel wird man weiterhin nicht mithalten können, aber die Preise werden in einem Bereich liegen, indem Bulldozer den ähnlich teuren Intel-Trabanten leistungsmäßig überlegen ist.
 
und haben sich zum kauf von ATi hinreißen lassen, was viel zu groß für sie war.
Eigentlich nicht, weil ATI gar nicht so viel wert war wie AMD gezahlt hat. Eigentlich nur ein Bruchteil dessen was AMD gezahlt hat. Mich würd mal interessieren was das für ein Typ war der den Wert von ATI geschätzt hat und deren Produkte. Kurz nachdem AMD ATI gekauft hat, ist ja der größte fail aller Zeiten gekommen HD 2900XT bzw. HD 2000 im allgemeinen. ATI(Ingenieure) wusste das schon Monate vorher wenn nicht sogar Jahre das es nix wird mit dem Konzept. Irgend wer hat AMD voll auflaufen lassen, aber so richtig. Hätten sie den Absturz von ATI abgewartet, nur ein paar Monate später als die 8800 von NV gekommen sind, dann hätte AMD ATI zum Schleuderpreis bekommen. Aber irgend was ist da gewaltig schief gelaufen.


Er zeigt ein relativ realistisches Leistungsbild und profitiert von jedem Kern,
Ein Bulli gleich auf mit einem X6 oder sogar schlechter, das glaub ihr doch selber nicht, dann kann AMD gleich einpacken... Cinebench kann daher nicht stimmen. Zumindest hoffe ich das.
 
Im CB11.5 ist der FX-8150 laut Leaks schneller als der X6 1100T.
 
Ja aber nur bei mehr Takt. Standartmäßig soll der Bulli ja mit 3,6GHz kommen und dann ist er, wenn überhaupt, nur noch paar Prozent schneller. Dass der Turbo alle Kerne auf 4,2GHz hochbringt ist doch Quatsch, dann bringt man ihn gleich mit 4,2. Viell. 3,7 oder 3,8 für alle Cores, 4,2 für die Hälfte und viell. 4,5 GHz für einen
 
Kasmopaya schrieb:
Nicht wenn du vom Planeten Erde sprichst: Athlon 64bit und HT 2 teure Server Features; Phenom I nativer Quad -> Server; Core i7 teure Server Platform die ganze Architektur war eigentlich für Server optimiert; GT200/Fermi > extrem auf Server zugeschnitten; HD 7000 Server GPGPU Einsatz.

Hast Du schon eine "DH7000" 'GPGPU'? Oder redest Du von Zukunftsmusik die genauso vage ist, wie das, worüber hier diskutiert wird?

Bulldozer wäre die erste CPU seit langem(Core 2) die bei Spielen ab geht wie sonst was und im Server Bereich nicht so. Wenns denn so kommt.

Jetzt fehlt mir Deine Einschtäzung: ist es gut, wenn Dreiradfahrer diktieren, die ein Lkw, ein Bagger oder eine Limousine auszusehen haben?

Synthetische Benchmarks haben den Nachteil das sie meist einen Teil der CPU stark belasten, den anderen Teil aber meist komplett brach liegen lassen. Was solche Tests sehr speziell werden lässt.

Das hat eine "Vermessung" im Gemeinen so an sich. Dafür gibt es diverse synthetische Tests, die dies und/oder jenes vermessen. Man muß es nur wissen. Blöd, wenn man nur vorgefertigte "Benchmarks" von zweifelhaft neutralen Einrichtungen zu nutzen imstande ist und darüber hinaus nichts. Damit macht man sich immer abhängig und die effektive Aussage ist gleich Null, wenn man trotzdem vermißt. Denn wie heißt es schon so schön: Wer mißt, mißt Mist ...

Man kann auch nicht sagen das AMD GPUs die schnellsten sind, weil sie bei Furmark vorne liegen. Die theoretischen Werte kommen in der Praxis dann gar nicht rüber.

Games haben die Angewohnheit alles, jeden Teil der CPU zu belasten, zb. auch die Speicherverwaltung also den Ram. Noch dazu ist seit neusten die PCIe Schnittstelle eng mit der CPU verbunden bzw. die Lanes in direkt in die CPU gebaut. Spiele wie Anno 1404 sind also sehr gut geeignet um eine CPU zu testen. Ohne irgend welche Optimierungen befürchten zu müssen.

Suum quique. Furmark ... ja, damit ist auch schon alles gesagt. Klick, klick ...

AMD kann sich derzeit rühmen, die leistungsstärksten GPUs am Markt zu haben - auf dem Papier. Die Anzahl der Rechenwerke und die "theoretisch FLOPs"-Zahl sind schon beeindruckend. Allerdings ist erschreckend, was dann beim Konsument, egal welcher Natur und Profession, letzlich ankommt. Es ist pro Watt noch immer genug, aber es steht in keinem Verhältnis zu dem, was als Zahl auf dem Papier steht.

Deine Aussage, daß Spiele alle Bereiche der CPU auslasten, halte ich für puren Unfug. Das ist eine Aussage, die Du nicht wirst halten können. Spiele werden in der Regel Kompromisse suchen, wenn eine CPU Architektur nicht das leistet, was man gerne auf der Mattscheibe sehen will. Da ich eng mit Spieleentwicklern befreundet bin, weiß ich, daß in vielen Bereichen nach "schnellen" Kompromissen gesucht wird, die vor allem wenig CPU belastend sind, um auf einer weiten und breiten Palette von Prozessoren möglichst zügig lauffähig zu sein. Es wäre wirtschaftlich auch völliger Unsinn, ein Spielchen nur auf einer einzigen CPU lauffähig zu machen, weil genau diese auch genügen Leistung mitbringt. Und solange man nicht weiß, unter welchen Bedingungen eine Binärdatei erzeugt wurde, ist ein Leistungstest sowieso schon mal äußerts fragwürdig und hält keiner wissenschaftlichen Kritik stand. Für Spielsachen also auch Spielsachen - so auf "Furmark".
Ergänzung ()

y33H@ schrieb:
Im CB11.5 ist der FX-8150 laut Leaks schneller als der X6 1100T.

Es wäre sehr schlimm, wenn das nicht so wäre! Immerhin läuft der FX-8150 auf 3,6 GHz Grundtakt, während der "Thuban" es auf 3,3 GHz bringt. Dazu ist der BD effektiv ein 8-Kern Prozessor, der durch Einsparungen 20% Zeit im kommunistischen Modus verbringen muß und Resourcen teilt.

Da keiner so recht weiß, unter welchen Bedingungen die Tests stattgefunden haben und welches Silizium AMD nun endgültig auf den Markt wirft, ist sowieso alles sehr, sehr vage.
Dennoch scheint sich schon jetzt herauszukristallisieren, daß Bulldozer vom architektonischen Gesichtspunkt Neuigkeiten bringen wird, die zukunftsweisend sein werden und AMD noch lange begleiten werden - vielleicht auch 6 Jahre wie der K8-Abklatsch K10/K10.5. Es dämmert aber auch jetzt schon den übelsten AMD-Euphorikern und Fanboys, daß es AMD mal wieder verschnitzt hat, die Leistungskrone zurückzuerobern. Aber wirklich verdient wird nicht mit Kindern, sondern mit solidem Gerät, also warten wir mal ab, was die Server- und Workstationprozessoren mit vier Speicherkanälen zu berichten haben werden ...
Ergänzung ()

Knuddelbearli schrieb:
Herr Stiller und Objektiver Test bezüglich AMD ? selten so gelacht. der nutzt doch jede Möglichkeit AMD schlecht dazustehen lassen.

http://www.heise.de/ct/artikel/Prozessorgefluester-1320643.html

a) Im Text ist nicht Verwertbares zu finden! Was willst Du mir bezüglich "Objektivität" und "Test" sagen? ich kann auch willkürlich texte kopieren, glaube mir ...

b) Habe ich etwas von "Test" geschrieben? Egal wie Stiller nun gepolt ist - seine Aussagen haben meistens Hand und Fuß. Zumindest mehr Gewicht als das Geblubber sogenannter "Experten" hier oder anderswo.
 
Zuletzt bearbeitet:
Zurück
Oben