News Ein-Chip-Design von Intels „Haswell“ erst ab Q3/2013?

@modena.ch
Ich sag nur Physik oder Partikelberechnungen auf der iGPU. Und da werden viele iGPU (alles uner Ivy bei Intel) gewaltig abstinken.
Und erkläre uns doch bitte, warum man bei Physik oder Partikelberechnungen nicht alternative einen potenten Intel mit einer GPU nutzen könnte. Oder müssen unsere Physiker jetzt solche Berechnungen auf Liano Notebooks machen?
Ich denke, hier steht andere Hardware als wir das kaufen können zur Verfügung.

Wer professionell Bildbearbeitung macht nutzt garantiert keinen AMD Rechner mit integrierter Grafik. Da kostet der Monitor schon mehr als der ganze Rechner.
Bleibt der Hobby Fotograf mit seinem Liano Notebook, der sich dann freut.
Hier aber jetzt schon Schlussfolgerungen zu ziehen, bevor die Haswell Hardware (und darum geht es in diesem Thread) beweisen kann, was die dann leistet halte ich für verwegen.
 
MikelMolto
naja vllt die APU für den professionellen Markt oder eventuell dessen Nachfolger
A320 2 / 4 3,8 / 4,2 GHz 4 MB HD 7660D 384 800 MHz 100 W
A300 2 / 4 3,4 / 4,0 GHz 4 MB HD 7660D 384 760 MHz 65 W


Aber ich glaube er meint mit physics allg Gaming, weniger wissenschaftliches. NV zumindestens zeigt ja mit PhysikX, dass gpus gut dafür geeignet sind. Anderseits gibt es ja auch Games mit eigener Engine, die die Physik durch die CPU berechnen lässt.
 
Zuletzt bearbeitet:
Das kann doch Sandy bridge auch. Oder versteh ich da was falsch?

Ich finde das Sinnvoll in kleinere Cpus für HTPCs oder Laptops. Aber für Gamer brauch die Leistung nicht großartig sein. Die haben ihre eigene Grafikkarte.

Aber Intel bitte beachtet eins: Übertreibt nicht mit der Grafik. In mein Nebook wünschte ich mir weniger Gpu Leistung und dafür mehr Cpu Leistung. Es bistzt eine Fusion CPU. Spielen kann man Zuhause am großen PC oder an der Konsole.
 
calluna schrieb:
Xeon Phi ist ein möglicher Ausblick auf zukünftige Technik im Desktop Bereich von Intel - und das liegt nicht weiter in der Zukunft als eine "Full Fusion" von AMD.

Das wird extrem schwer für Intel.

Diese Jahr kam Trinity, nächstes Jahr kommt Kaveri und danach ist die Full-Fusion bereits da. Xeon Phi soll Ende des Jahres kommen. Das heißt Intel hätte 12-24 Monate Zeit um Fusion mit einem Core i Phi zu kontern. Das schaffen die nicht und soweit ich das recht in Erinnerung habe, hat Intel die Entwicklung von Desktop-MICs vorerst eingestellt.

Das ist aber auch egal, im Kern hast du ja vollkommen recht und Many Core kann auf sehr lange Sicht vielleicht auch Einfluss auf den Mobile und Desktopmarkt ausüben, aber Intel wird es eben deutlich schwieriger haben als AMD.

Das Konzept hinter Phi ist ein total aufgeblähter und hochgezüchter Muskelprotz-Co-Prozessor. Phi funktioniert ähnlich wie eine GPU, allerdings werden anstelle von hunderten, simpel aufgebauten Streamprozessoren 60 (verhältnismäßig) hochkomplexe x86-Kerne zusammen mit 30MB Cache verbaut. Sowas kannst du nicht mal eben shrinken bis du eine TDP von 90W hast und es dem Durchschnittsverbraucher für 150€ verkaufen kannst, denn irgendwann ist der Prozessor soweit verkleinert, dass es sich eigentlich wieder um einen Multicore handelt und dann wird es auch irgendwann unmöglich, mit GPGPU mithalten zu können, denn ein wesentlicher Grund für die Rechenleistung von Phi ist die Parallelisierung.

Ich sehe keine Chance, dass Intel das Prinzip in den nächsten Jahren auf den Desktop bringen kann, von Mobile mal ganz zu schweigen. Der Many-Core muss vorerst groß und aufgebläht bleiben, damit er auch Sinn macht und jetzt werden einige sagen "aber 300W Grafikkarten gibt es auch".

300 Watt Grafikkarten haben deswegen eine Daseinsberechtigung, weil sie genauso funktionieren wie die 50W GPU im Notebook. Das heißt, es ist für den Entwickler abgesehen von ein paar Details egal, ob er für ein 300€ Notebook oder für einen 1500€ Desktop-PC entwickelt, es wird auf beiden Systemen laufen, ohne das er dabei einen inakzeptablen Mehraufwand hat.

Und genau da kommt die APU und die modulare Bauweise von Bulldozer und GCN ins Spiel. AMD hat den gleichen, taktischen Vorteil, denn wenn sie eine Mobile-APU mit einem Modul und 128 Streamprozessoren bauen und diese für 60€ verkaufen, dann ist das Prinzip hinter diesem Chip genau das gleiche wie hinter einer 250€ Dekstop-APU mit 4 Modulen und 512 Streamprozessoren. Macht sich eine Software das Prinzip der 50€ APU zu nutze, wird auch automatisch das Prinzip der High-End APU genutzt.

crustenscharbap schrieb:
Das kann doch Sandy bridge auch. Oder versteh ich da was falsch?

Ich habe mir jetzt die Mühe gemacht, über mehrere Seiten hinweg das Konzept der AMD Fusion zu erklären. Ich denke du solltest dir denn Thread mal ganz durchlesen, denn deine Frage wurde schon mindestens ein Mal beantwortet.
 
modena.ch schrieb:
...
Da bringt es dann gar nix wenn Intel die IPC zum x ten mal ein paar Prozent anhebt.
Das haben sie inzwischen auch begriffen und konzentrieren sich jetzt arg auf die GPU und ihrer Verwendungsfähigkeit bei GPGPU.

Das widerspricht sich doch. Wenn selbst uralte CPUs für (fast) alles genug Rechenleistung bieten, warum sollte man dann auf GP-GPU setzen, um sie zu entlasten?
Besonders im Office-Bereich ist sowas doch total überflüssig. Man braucht kein GPU-beschleunigtes Word oder Outlook.

Tatsächlich war der Punkt, an dem die Leistung von GPUs für fast alles (außer Spiele) locker ausreicht, schon vor vielen Jahren erreicht. Nicht umsonst war Intel schon zu GMA-Zeiten der größte GPU-Hersteller vor Nvidia und AMD/ATI. Sogar diese alten, unsäglich miesen Intel-Chipsatzgrafiken reichten für die allermeisten PC-Anwender aus.

Durch HD-Videos kam seit dem noch eine neue Herausforderung hinzu, aber auch die haben schon vor Jahren die ersten HD-GPUs (Arrendale udn Co.) gemeistert.

Neben den CPUs langweilen sich in modernen PCs also auch die inzwischen total überdimensionierten integrierten GPUs zu Tode.

Dem typischen PC-Anwender sind deshalb APUs und GP-GPU mindestens genauso egal, wie dicke CPU-Boliden.

Was bleibt ist die Minderheit mit höheren Ansprüchen an CPU und GPU. Z.B. auch die Spieler. Die werden auch weiterhin immer mehr CPU- und GPU-Leistung brauchen.
Wie man den restlichen 90% in Zukunft neue CPUs andrehen soll, ist Intels und AMDs Problem, aber zum Glück nicht unseres. :D
 
Na dann frieren wir die Entwicklung doch am besten ein.

Neue Technik braucht ja anscheinend eh niemand und alle sind zufrieden mit der Rechenleistung ,die sie im Moment haben. Die Wissenschaftler müssen dann eben mit dem auskommen was sie haben, denn Office läuft ja bereits flüssig. Keine Medizinforschung oder Klimaforschung mehr. Der absolute Stillstand.

Nein, ich finde mit so einer Argumentation sollten wir gar nicht erst anfangen. Es ist okay, wenn man den Sinn eines Produkts hinterfragt, denn viel zu oft geht es nur um unnötigen Konsum: Braucht der PC-Gamer unbedingt eine 500€ teure 300W Stromschleuder nur um 5FPS mehr zu haben? Macht das Upgrade von Sandy Bridge zu Ivy Bridge Sinn? Darüber lässt sich vortrefflich diskutieren.

Aber wenn wir jetzt auch anfangen, die Entwicklung von neuen Technologien zu hinterfragen, also ob es Sinn macht auf GPGPU zu setzen, oder einen MIC-Ansatz für HPC auszuprobieren, dann öffnen wir ein Fass ohne Boden. Jede neue Technologie wird ihre Vorteile und Nachteile mit sich bringen und ich denke niemand in diesem Forum wird vorhersehen können, wie sich die Dinge in Zukunft enwickeln werden.

Was wäre passiert, wenn Roger Bacon sich mit den vorhandenen Lehren zufrieden gegeben und nicht die empirische Naturwissenschaft begründet hätte? Vermutlich würden heute nicht mal Elektrizität haben.
 
nanoworks schrieb:
Ob man Gewinn macht oder nicht sagt überhaupt nichts darüber aus, ob ein Unternehmen gesund ist.

ja ist klar :freaky:

Ich würde sagen es hat sehr wohl sogar massiv was damit zu tun, ist aber nicht der einzige Faktor.

@ Verzug wegen Fertigung.

Auf Haswell trifft das auf keinen Fall zu, viel eher auf den Nachfolger, den Shrink. Sofern sich dieser Schritt zu 14nm verzögert (durchaus vorstellbar), dann schiebt man natürlich die Produkte dazwischen nach hinten um die Roadmap auf den Prozess anzupassen.

Haswell wird kaum Fertigungsprobleme haben wenn IB bereits heute in Mengen in selber Fertigung vom Band läuft ;)

10% mehr IPC wären mehr als erwartet, imho ist Intel hier auf einem sehr hohen Niveau, während AMD mit ihrer Modulbauweise selbst mit Gen 2 vermutlich nicht mal zum Vorgänger aufschließen kann. Dass AMD mehr Optimierungspotential bei ihrer neuen Architektur haben sollte, sollte selbstverständlich sein. Ist dem nicht der Fall, schaut es eher düster um die Architektur aus.

Haswell legt den Schwerpunkt weg von Leistung auf CPU Seite hin zu mehr Dampf und Features bei GPU und Multimedialen Eigenschaften (Hier muss Intel eher AMD nachziehen). Zudem wird er sicher auch gezieht auf kleine TDPs getrimmt und eventuell auch im Bereich von 10W aufschlagen.

Ziele sind klar GPU, Features (Connected StandBy) und Energieeffizienz durch SOC.
 
Voyager10 schrieb:
@aylano
Wenn Liano und Trinity immenz soviel besser wären dann wäre das im Markt eine Sensation ,
1. Besser zum Vorgänger und nicht besser zur Konkurrenz.
2. Llanos primäres Problem war in den ersten 3Quartale (2-4Q 2011) das Fertigungs-Volumen. Und Trintiy kommt ganz gut an. Denn im 2Q 2012 wurden mehr Trinitys+Llanos verkauft als Llano im 1Q 2012, wo es keine Lieferengpässe gab. Damit ist die Tendenz des APU-Verkaufs weiter steigend.

Ja und Ontario ist auch eine Sensation im Markt und trotzdem kaufen die Intel-Käufer lieber mehr Intels-Netbooks.

dabei ist der Leistungsabstand in der Grafik max nur 50% und das ist im OnboardGrafik-Segment für leistungsfähigere Games noch kein Argument
1. AMD sind in Games so viel schneller sind, als eh schon teuren HD4000.
2. Hardware-GPU-Power alleine reicht nicht. Wenn AMD im Games ihre GPU-Power gut in Games mit hoher fps umsetzten können, können sie das höchstwahrscheinlich auch in den GPGPU-Anwendungen. Solche Optimierungen gehen nicht von heute auf morgen.

Und da Win8 & Co immer mehr auf GPGPU ausgelegt werden, kann dann AMD bei Kaveri mit einer echten HSA sehrwohl vorteile in relevanten Anwendungen bekommen.
Schon heute werden die Browser über GPGPU beschleunigt. Und es verwundert nicht, dass AMD im Teillasten sehr gut mithalten kann.

Deshalb wäre es total unverantwortlich von Intel, bei diesen Voraussetzungen auf die Konkurrenz zu warten.

und das geht ausserdem zulasten der Laufzeit weil IvyBridge halt effizienter ist. Letztendlich bleibt es trotzdem dabei , IvyBridge könnte noch mehr wenn es sein müsste .
Bei iGPU kann es schon zu KO-Kriterium werden, wenn zuwenig GPU-Performance vorhanden ist.
Vorallem, wenn jetzt der Trend zu höheren Auflösungen ist und HD4000 Stärke in kleinen Auflösungen liegt bzw. in großeren Auflösungen stärker zurückgeht.

@Topic
Jeder der Behauptet, Intel würde aufgrund der Konkurrenz warten, der sollte mal die Nachfolger berücksichtigen, wo ich eben aufgrund der 14nm (Generelle Fertigungsproblem) das Problem sehen. Wenn Haswell Ultrabook im 3Q2013 kommen, dann wird es den Nachfolger weniger im 2Q 2014 und schon garnicht im 1Q 2014 geben.

2014 soll es dann den 20nm-"Kaveri" geben. Und wenn dieser im 1Q/2Q 2014 erscheint, dann und Intel "wartet", dann würde se bei den hier vorgegaukelten riesen Intel-Image einen Einbruch geben, weil die Konkurrenz (temporär) enorm aufholen würde.

Und es kann sehrwohl so komman.
Denn nach den 65nm und K10-B2-Probleme, erschien K10-C2 dann auch sehr ausgereift & performant & Pünkltich. Das Problem von GF war in 28/32nm, dass sie 2 Fertigungen entwickeln musste und ein Foundry-System aufbauen mussten, wo sie dann 50 statt nur 5 Dies pro Jahr designen.
Nicht nur, dass sie diese Herausforderungen nicht mehr haben und in 20nm nur mehr eine Fertigung entwickeln, sondern sie haben mit Fab8 eine zusätzliche Forschungsfabrik, wodurch die 20nm-Entwicklung beschleunigt werden kann.

PS: Intel muss den Vorsprung halten, um ihre CPUs in den hohen Preisen weiter verkaufen zu können. Ein Quartal zu warten, wird man kaum Kosten einsparen können. Aber ein Quartal zu warten, könnte sehrwohl das hier gepredigte Image etwas kaputtmachen, wenn die Konkurrenz mal wieder mit gleichen Waffen in den Tests zurückschlagen kann.

Selbiges sagte man früher zu AMD-High-End-GPU und es wurde AMDs damalige Anstrengungen zu Dual-GPU belächelt und HD 5870 temporärer Vorsprung kleingeredet, da Nivdia angeblich immer so locker zurückschlagen kann. Mittlerweile sind die Reserven weg und AMD kann nach dem ersten Nvidia-Konter immer noch die Performance-Krone behalten. Das gab es schon sehr lange nicht und ist ein riesen Erfolge des steigen und kontinuierlichen Aufholprozesses.
 
Herdware schrieb:
Das widerspricht sich doch. Wenn selbst uralte CPUs für (fast) alles genug Rechenleistung bieten, warum sollte man dann auf GP-GPU setzen, um sie zu entlasten?
Besonders im Office-Bereich ist sowas doch total überflüssig. Man braucht kein GPU-beschleunigtes Word oder Outlook.

Tatsächlich war der Punkt, an dem die Leistung von GPUs für fast alles (außer Spiele) locker ausreicht, schon vor vielen Jahren erreicht. Nicht umsonst war Intel schon zu GMA-Zeiten der größte GPU-Hersteller vor Nvidia und AMD/ATI. Sogar diese alten, unsäglich miesen Intel-Chipsatzgrafiken reichten für die allermeisten PC-Anwender aus.

Durch HD-Videos kam seit dem noch eine neue Herausforderung hinzu, aber auch die haben schon vor Jahren die ersten HD-GPUs (Arrendale udn Co.) gemeistert.

Neben den CPUs langweilen sich in modernen PCs also auch die inzwischen total überdimensionierten integrierten GPUs zu Tode.

Dem typischen PC-Anwender sind deshalb APUs und GP-GPU mindestens genauso egal, wie dicke CPU-Boliden.


Für den Grossteil der Anwender reicht die Rechenleistung der CPU auch mit 3-4 Generationen alten Designs locker aus. Wozu sollten sie auch mehr haben?
Für Word, fürs Chatten und Flashfilmchen kucken?

Auch bei den Gamern ist es eher ein haben wollen, als brauchen.
Was macht es für einen Unterschied ob man in den meisten Games mit seinem Phenom II
oder Core2Quad 120 oder mit dem dicken Sandy-E oder Ivy 140FPS hat.
Bei den anspruchsvolleren Games sind es dann eben 50 und 55 FPS. Völlig belanglos!
Die GPU spielt hier eine viel grössere Rolle.
Selbst ein BF 3 oder Crysis2 kann mit einer poteten Graka auf einem Core2Duo locker noch auf vollgas gut gespielt werden.

Wenn jetzt also Intel mit extremen Anstrenungen durch IPC Steigerung (und so viel geht bei den Inteldesigns nicht mehr) 7-10% rausholt, mag das im ersten Moment interessant sein. Aber auch nur anspruchsvolle Spezialsoftware wirklich interessant. Für alles Andere ist so oder so genug Power da.

Wenn nun aber AMD die Entwickler dazu bringt, für Software wo man eben Power braucht mit überschaubarem Aufwand auch einen OpenCL Pfad zu entwickeln falls möglich, ist der Gewinn von dicker CPU zu einer GPU vom Schlage eines abgespeckten Northern Islands oder Graphic Core Next GPU schnell mal bei 300-600% und das bemerkt man gewaltig.

Die neueren Photoshop und Gimp Versionen, viele Browser, Flash und sonstige Videoplayer zukünftig vielleicht viele Games, kommt auf die Konsolen an, Videoconverter etcetcpp. machen und werden regen Gebrauch von den Leistungfähigkeit einer GPU machen.
Für sehr viel Software macht es eben Sinn da die GPU die Berechnungen viel schneller und
effizienter durchführen kann.
Ausserdem macht es auch für die normalen Mehrkern-CPU Sinn weil die Arbeit von einem entwickelten OpenCL Pfad auch leichter auf die vorhandenen und ungenutzten CPU Kerne verteilt werden könnte.

Und die letzten AMD Designs sind für viel GPGPU Leistung gebaut.

Da ist selbst Intels HD4000 hoffnungslos unterlegen und HD3000 einfach nur wertlos.

Deshalb ist es logisch, dass sich Intel inzwischen auch in diese Richtung stärker engagiert.
 
Zuletzt bearbeitet:
Für den Grossteil der Anwender reicht die Rechenleistung der CPU auch mit 3-4 Generationen alten Designs locker aus.

Das sind aber nicht die Leute, die CB lesen oder gar in einem solchen Thread mitdiskutieren. Das Niveau auf dem ihr hier diskutiert habt, ist für Leute <1% der PC-User. Ich persönlich find den Thread ausgesprochen spannend und hab hier jede Menge gelernt oder Punkte gefunden, die ich dann iwo nachlesen und verdichten konnte.

Vielen Dank!!
 
Ich frage mich, wie Intel dann "Haswell" einführen wird. Als Zweichip-Lösung wie gehabt mit einem dedizierten Chipsatz? Das würde aber bedeuten, daß im Frühjahr die ersten Haswell mit entsprechenden Mainboards auf den Markt kommen und im Herbst wird dann gleich ein neues Mainboardesign fällig. Oder Intel verschiebt die Einführung komplett nach hinten auf das Quartal 3 des Jahres 2013.

Aber geplant schon nach nur 6 Monaten die komplette Basis zu ändern - das halte ich für dreist. Andererseits - Intel kann sich des infantilen "Haben wollen" sicher sein und die mit dem Euphemismus "Early Adopter" attributierten Kunden testen die erste Generation und "steigen" dann nach 6 Monaten zum SCP Design um.
Ergänzung ()

oemmes schrieb:
Das sind aber nicht die Leute, die CB lesen oder gar in einem solchen Thread mitdiskutieren. Das Niveau auf dem ihr hier diskutiert habt, ist für Leute <1% der PC-User. Ich persönlich find den Thread ausgesprochen spannend und hab hier jede Menge gelernt oder Punkte gefunden, die ich dann iwo nachlesen und verdichten konnte.

Vielen Dank!!

Gut gebrüllt, Löwe! :freaky:

Das seichte "Ich werde mir XXX kaufen, wenn es kommt" paßt besser zur CHIP oder in die ComputerBILD.
 
@Eisenfaust

Haswell wird es für den normalen Desktop (mit Sockel LGA 1150) als Zwei-Chip-Lösung mit dem "klassischen" separaten Chipsatz (Lynx Point) geben. Die Single-Chip-Variante gibts afaik nur als BGA-Package für Notebook.
 
Eisenfaust schrieb:
Das seichte "Ich werde mir XXX kaufen, wenn es kommt" paßt besser zur CHIP oder in die ComputerBILD.

Der Computer-Bild-Leser entspricht doch eigentlich eher dem unbedarften PC-Käufer. Der Satz passt meiner Auffassung nach viel besser zu Computerbase. ;) Deinen angestrebten Niveauvergleich würde ich aber unterschreiben. :D
 
Also mein C2Quad muss nicht aufgerüstet werden weil er nur 20 % Weniger Leistung als aktuelle Ivy-I5 hat ??? xD

Dann ist ja alles in Butter! ^^

Ne mal im Ernst: Was AMD im Moment auf dem Gamer-CPU Markt Treibt, lässt mir die Tränen in die Augen schiessen. Ich werde auch
sicher nicht 2-3 jahre warten bis AMD dann mal seine CPU Konzepte konkretisiert hat. Und ich habe auch schon AMD CPUs besessen vor
meinem C2Q.

Die Effizienz ist nicht mal ansatzweise mit der von Intel zu vergleichen. Die Leistung, welche ich dort einspare, kann meine GPU dann
von mir aus wieder mehr verbrauchen.

Und ja ich weiss das die Threads nicht ausgelastet werden, aber es wird trotzdem ein Haswell I7 ! ;)

MFG, Dirty
 
Und ich Dackel warte sehnsüchtig auf Haswell, damit ich endlich meinen Q9450 in Rente schicken kann.
Mich stört allerdings, das der inzwischen 4 Jahre alt ist und meine neue CPU dann die gleiche Kernzahl hat.
Damit hatte ich 2008 nicht gerechnet. Schade das die Programmierer die Kerne nicht richtig auslasten können.

Es wird eben primär für Laptops programmiert auf Grund der wesentlich höheren Verkaufszahlen im Bezug zum Desktop.

Für den Grossteil der Anwender reicht die Rechenleistung der CPU auch mit 3-4 Generationen alten Designs locker aus.

Die meisten kaufen sich aber einen komplett neuen PC auch wenn beim "alten" nur eine Komponente kaputt ist.
So teuer sind Office/Multimedia Rechner nicht ~300€.
Da lohnt eine Reparatur ganz einfach nicht, vor allem nicht bei 2-3 Jahre alter Hardware.
Du musst auch noch Weg&Zeit dazu rechnen.

Da wird einfach ein neuer bestellt der bequem per Post kommt.
Der alte wandert in den Müll.
Auch gibt es viele die Windows nicht neu installieren nach einem gröberen Softwarefehler (Virus/Trojaner whatever) sondern sich einen neuen Rechner kaufen.

Bei uns im Spital werden die ganzen Mini-ITX Rechner nicht repariert (200€-300€) - Die Arbeitszeit ist viel zu teuer. Wenn ein Rechner kaputt geht holt man sich im Lager einen neuen.

Intel hat schon recht - Auf Grund der billigen Komponenten haben skalierbare Einzelsysteme für 90% der Anwender kaum noch Sinn.
Es ist auch schwachsinnig hunderte billige Einzelkomponenten zu lagern.
Lohnt doch kaum bei den geringen Margen.

Da verkauf ich lieber Apple Produkte... wesentlich weniger Aufwand.

Oder ich konzentriere mich auf IT Produkte wo viel Marge drauf ist. (Tower, Netzteile, Gaming l33tzor Peripherie etc. ... so wie einst Caseking angefangen hat).
Grafikkarten würde ich gar nicht anbieten. 8€ Gewinn und wenn jemand reklamiert hab ich schon Verlust eingefahren.

Ich denke Intel wird BGA für den Desktop vorziehen.
 
Zuletzt bearbeitet:
Simon schrieb:
Die Single-Chip-Variante gibts afaik nur als BGA-Package für Notebook.
Es gibt keinen SoC, sondern einen MCM bestehend aus der CPU (samt iGPU, IMC, Lanes etc.) und PCH auf einem Träger.
 
Zurück
Oben