News Intels schnellste „Haswell“-Grafik HD 5200 auch im Desktop

nukular8400 schrieb:
...Die paar Watt in der TDP hingegen merkt doch niemand...

Eben doch. Jedes Watt zählt. Wie kommst Du darauf, von deiner Vorstellung auf die Vorstellungen von allen Andern zu schließen???
 
@bensen

den sinn von embedded produkten versteh ich gut...und dort wo flaechendeckend embedded produkte eingesetzt werden moechte man so wenig wie moeglich an energie aufbringen.
und wozu braucht man diese enorme leistung im embedded bereich?
fuer die meisten terminalserver anwendungen reicht auch nen arm mit cortex kern.

btw gab es verloetete cpus(auch intel) fuer embedded produkte auch schon vor dieser ankuedigung
aber meines wissens eben nicht fuer den DESKTOP.
 
Zuletzt bearbeitet von einem Moderator:
Jetzt warte ich nur noch auf Benchmarks. Damit kann man dann vermutlich auch schon gut zocken.
 
Matzegr schrieb:
Intels erste Grafikkarte kam 1998 auf den Markt. Es ist ja nicht so, dass sie es erst seit paar Jahren versuchen.

naja, bis vor wenigen Jahren waren Intels GPUs nur zu einer Sache gedacht: Irgendwie den Desktop in Office Umfang darzustellen. Erst allmählich beschreitet Intel mehr den Multimedia Weg, erst was Beschleunigung von Material angeht, nun zunehmen auch im Gaming Umfeld.

Ich denke man kann schon sagen dass die Intel GPU in den letzten Jahren ganz schön mutiert sind. Man schau sich mal die noch nicht so alte GMA4500 gegen eine HD5200 mit 128MB Mem an.
Ergänzung ()

sonyfreak1234 schrieb:
und das lächerliche an der Intel igp ist ja das der voll ausbau in einer highend cpu sitzt
wo sowiso eine dedizierte gpu vorhanden sein wird.
also für einen normalen durchschnitts user uninteressant, also das apu Konzept total verfehlt.

wasn das fürn Quark? Es soll auch Anwendungsfälle geben wo man auf eine fixe CPU angewiesen ist und nur wenig GPU Performance braucht. (wenns nach mir geht zb in jedem NB / Ultrabook / Arbeitsgerät)

Was heißt hier APU Konzept? Muss es immer so sein (langsame CPU + langsame iGPU | schnelle CPU + schelle iGPU) ? Wenn ja - wieso?

AMD würde sicher auch ihre großen APU mit gestutzter GPU Einheit anbieten wenn man sich das leisten könnte. Dagegen spricht auch nichts.

(schau dir mal die Anzahl der AMD vs die Anzahl der Intel Produkte an... diese Differenzierung kostet Geld)
 
Zuletzt bearbeitet:
Die GMA4500 war schon ein großer Schritt in die richtige Richtung. Mit Hardwareencodern für H264 war das Ding seinerzeit wirklich gut. Windows Aero war kein Problem, Full HD Wiedergabe per Hardwareencoder auch kaum (die Software fehlte). Insofern reichte das Ding zu diesem Zeitpunkt völlig. Es gibt auch heute keine ernstzunehmende, weit verbreitete Killeranwendung außer eben Programme mit aufwendiger 3D Grafik (Spiele, CAD, ...).

Insofern sind die aktuellen HD IGPs eher was für Gelegenheitszocker und in Form der Xeon CPUs mit Pxxxx Grafik für kleinere, mittelgroße 3D Sachen (CAD zB). Wobei es die professionellen Pxxx IGPs nicht für Notebooks gibt (sooooo sinnlos!)


Edit: Ist irgendwem bekannt, ob es Modprojekte gibt, die eine mobile HD Grafiklösungen von Intel mit den Treibern der Xeon P Grafik ausstatten kann? Dann könnte man sich die teuren Quadros im Notebooksegment einfach mal sparen :)
 
Mr.Seymour Buds schrieb:
Eben doch. Jedes Watt zählt. Wie kommst Du darauf, von deiner Vorstellung auf die Vorstellungen von allen Andern zu schließen???

Dieses Zitat ist nicht ausreichend im Zusammenhang belassen.

1. Ich antwortete auf die Forderung, nur noch 65W oder weniger CPUs zu verkaufen (Der implizierte Zwang dahinter ist meiner Meinung nach kein gesunder Gedanke)
2. legte ich die Gründe genau dar, warum es keinen vernünftigen Grund gibt, das zu tun

nochmal:

Die TDP bezeichnet nicht den tatsächlichen täglichen Verbrauch. Im idle unterscheiden sich 65W und 84W Varianten nicht. Dann gibt es die Fälle, in denen bestimmte Aufgaben erledigt werden sollen. Hier kann es viel besser sein, ein paar Watt mehr zu verbrauchen, dafür schneller fertig zu sein (Energie ist Leistung mal Zeit). Gerade in der vergangenen Woche habe ich einen PC zusammengebaut, auf den genau das zutrifft. Zudem ist ein schnellerer Rechner auch tendenziell länger im Einsatz, weil er eben erst später "zu langsam" wird. Einen Rechner zu ersetzen verbraucht ungleich mehr Energie als ein paar Watt mehr in der TDP, die ja wie gesagt nicht mal zwingend einen tatsächlichen Mehrverbrauch bedeuten.


Und jetzt kommt die Wendung: Für mich zählt jedes Watt. Strom ist teuer mit Tendenz zum teurer. Der Stromverbrauch bei uns zu Hause ist sehr weit unter dem deutschen Durchschnitt mit weiter fallender Tendenz. Aber gerade weil ich mich mit der Problematik sehr genau auseinander setze, hat mich die Forderung nach "nichts über 65W sollte mehr verkauft werden" sehr aufgeregt.

Ich kenne genug Leute, für die ein 65W-Modell mit integrierter HD-5200 in Frage käme. Die Spieleleistung der HD 4000 reichte schon für allerhand Spiele in Full HD (Ja, manche Leute stehen halt auf Battlefield 2 und Flatout 2 und sind damit gut bedient) und gleichzeitig hat man noch vernünftige CPU-Leistung für den alltäglichen Einsatz und die ein oder andere Flussberechnung. Bin auch gespannt auf den idle-Verbrauch der neuen Modelle. Zwar kann Intel da sicher keine neuen Wunder aufstellen, da der Systemverbrauch schon jetzt sehr niedrig ist, aber eine erneute Senkung nimmt man gerne mit ;)
 
Mit dieser Aktion wird das in Zukunft folgende "nur noch verlötete CPUs im Desktop" eingeleitet.
 
Genau, schade und eigentlich doch "gut", die einzigsten CPUs von Intel auf die auf mein Anwenderprofil passen würden, sind verlötet.
So wird es so und so eine AMD APU werden, nicht zu 100% sondern zu 110%.

Intel schlägt hier für ein paar "Cent" die am Sockel gespart wird den falschen Kurs ein. mfg


#
 
AMINDIA schrieb:
Mit dieser Aktion wird das in Zukunft folgende "nur noch verlötete CPUs im Desktop" eingeleitet.

Aber nur wenn die Bordhersteller das mitmachen. Ich kanns mir beim besten Willen nicht vorstellen das man als Hersteller plötzlich 1000 Mainboards anbieten will nur um alle Board/CPU Kombinationen abdecken zu können.
 
Ich sehe keinen Vorteil für Intel darin, dass die iGPU jetzt versucht wird verstärkt zu werden. Egal ob HD 3000, 4000, 5000 oder wat auch immer: Zum Zocken sind die doch eh nicht geeignet. Jeder Dekstop Zocker Pc wird sowieso eine Grafikkarte installiert haben.

Es wär weitaus klüger, wenn Intel sich wirklich nur auf den Prozessor konzentriert, sprich den Grafikpart nicht so verbessert, weil es einmal DIE kostet, und noch zu viel TDP. Die Prozessor Leistung könnte so wirklich optimiert werden, so dass ein schneller und sparsamer Prozessor rauskommt.

Diese iGPU Geschichte fand ich bei Intel sowieso immer daneben.

Wenn, und daran will ich glauben, AMD bis nächstes Jahr seine APUs so weit verbessern kann (28nm), dass man vernünftig damit spielen kann (sprich mittlere Einstellungen), und auch genug Prozessorleistung hat, dann werden die günstigen AMD Apus für Saturn und co Multimedia Pcs die bessere Alternative sein neben Intel.

Ich denke der Kabini (28nm) wird uns ende Mai schon genug Andeutungen machen ob sein Sohn, Kaveri, dies schaffen wird.

Mit Grüßen
 
Solange mein Noctua NH-d14 Lüfter noch auf neue Sockel passt soll mir das Recht sein, wenn ich den jetzt auch noch auswechseln muss ist es natürlich bescheuert...
 
Kassenwart schrieb:
Aber nur wenn die Bordhersteller das mitmachen. Ich kanns mir beim besten Willen nicht vorstellen das man als Hersteller plötzlich 1000 Mainboards anbieten will nur um alle Board/CPU Kombinationen abdecken zu können.

Du machst einen Gedankenfehler, sollte es je Soweit kommen wird es nur noch einen Board Hersteller geben namens Intel :'D
 
Kann mich noch erinnern das es zumindest früher auch immer einige wenige Hersteller gab die Sockel-Adapter angeboten haben.
Man musste zwar ein paar Abstriche hinnehmen, aber dafür hatte man eine neue CPU auf einem älteren teuren Board. Keine Ahnung ob so etwas heute auch noch angeboten wird.
 
devgenc schrieb:
Es wär weitaus klüger, wenn Intel sich wirklich nur auf den Prozessor konzentriert, sprich den Grafikpart nicht so verbessert, weil es einmal DIE kostet, und noch zu viel TDP. Die Prozessor Leistung könnte so wirklich optimiert werden, so dass ein schneller und sparsamer Prozessor rauskommt.

Damit würde sich Intel doch total ins Abseits schießen. Der mobile Markt in Form von kompakten Rechnern, Tablets, Ultrabooks etc. boomt mehr und mehr. Gerade hier ist es wichtig, dass man eine diskrete Grafikeinheit möglichst klein verbaut. Das ist ein riesiger Markt. Wieso sollte Intel nicht auch hier versuchen besser einzusteigen?

Das geht nunmal in der CPU am besten. Man hat ja Jahrelang integrierte Grafiken auf Mainboards verbaut, aber das war Murks und ich denke man ist nicht ohne Grund von dieser Entwicklung weitestgehend abgewichen und hat die GPU mit in die CPu integriert.

Desktop Zocker PCs sind übrigens ein relativ kleiner und überschaubarer Markt gegenüber dem wie PCs sonst eingesetzt werden und wenn du am PC nicht spielst, wieso sollte man sich da etwas besseres einbauen? Im Grunde reichen die vorhandenen Lösungen mit der HD2500 und HD4000 da eigentlich schon bestens aus. Wenn ich mir einen HTPC baue, und dieser dann sogar noch das ein oder andere Spiel schafft, wieso nicht?

Da sehe ich allerdings AMD noch deutlich im Vorteil, wobei meiner Meinung nach schon erstaunlich ist, was Intel da inzwischen raushaut.

Zu der Mainboardsache ich denke da wirds keine 1000 Kombinationen geben, sondern deutlich weniger. Im Grunde brauch man ja auch nicht viele Varianten. Ein Low Budget Board, dass nur das nötigste an Ausstattung hat, ein Mid Range Board, wo so die meisten Sachen eben vorhanden sind und dann das High End Board für Enthusiasten.
 
Zuletzt bearbeitet:
@Tiu: Diese Adapter verschlechtern durch zusätzliche Kontakte und längere Leiter die Signalqualität erheblich. Zwar gibt es allerhand Puffer was das angeht (sieht man zum Beispiel daran, dass man meist doch noch ein gutes Stück die Spannungen verringern kann und die Kiste eben trotzdem stabil bleibt), aber bei den hochgerüsteten CPUs der heutigen Zeit dürften Adapter zu allerhand Probleme führen. Mal ganz davon abgesehen, dass das Bios eines Boards welches mit Adaptern einen nicht vorgesehenen Prozessor tragen nicht die nötige Firmware hat um alle Funktionen moderner CPUs ordentlich zu nutzen bzw. Bugs der CPUs auszugleichen.

@nebulein: Die Intel Onboardgrafiklösungen haben für typische Alltagsanwendungen zu ihrer Zeit immer gereicht und das über Jahre bzw. bis zur nächsten Windoof Generation. Das die GPUs mit dem Wegfall der Northbridge in die CPU gewandert sind war nur logisch. Die GPU muss einfach möglichst nah am Speichercontroller liegen. Früher war es die Northbridge, heute die CPU, hauptsache die GPU hat eine möglichst direkte Speicheranbindung. Eben wegen dieser Speicheranbindung versucht auch AMD derzeit durch allerhand Kniffe CPU und GPU dazu zu bringen, dass sie gemeinsam auf Speicherbereiche zugreifen können. Solche Späße wird Intel (eher) früher oder später auch einführen müssen.
 
Mal ne Frage: vom Datenblatt her sollte der 4770k keine wirkliche Mehrleitstung (reine Rechenleistung) gegeüber dem 3770k von mir haben, oder?
Beide haben 4/8 Kerne/Threads, 3.5 Ghz mit 3.9 Turbo... bis auf die iGPU welche ich eh nicht nutze, macht ein Upgrade ja überhaupt keinen Sinn. Ich nutze die CPU sehr stark fürs Rendering und da kommt jede Mehrleitstung nur positiv, aber wenn wir hier von 2-5% reden und nen neues Board Pflicht wäre... nicht rentabel ;)
 
Jain, intern wird die Architektur etwas aufgewertet. Hier und da ein paar zusätzliche Recheneinheiten, ein Satz neue Befehle für Vektorrechnung etc. Das soll wohl bis zu 10% mehr Wumms bei gleicher Frequenz bringen. Nur eh die Software die neuen Features beherrscht wird wieder Zeit ins Land gehen. Die Speicheranbindung wird die übliche Aufwertung erhalten usw.
Die Englische Wiki weiß mehr.

Alles in allem lohnt sich (wie fast immer) der Sprung von der letzten Generation auf die direkt nachfolgende Generation nicht. Selbst die vorletzte Generation ist so schnell, dass aus wirtschaftlichem Gesichtspunkt ein Aufrüsten kaum lohnt.
 
ich_nicht schrieb:
Besser fürs Klima währe wenn alle mal nich jeden cm mit der 4-Takt-Kutsche fahren würden und nicht so viel Fleisch fressen würden.
Beim Stromverbrauch hat der Privatverbraucher eh nichts zu melden. Da braucht die Industrie Faktor x (google'n) mehr.
Klima? Und dass mach dem Rekord Winter!
 
elmex201,

dass der Winter so lange bei uns angehalten hat, liegt an der Erderwärmung. Von einen Winterrekord kann man aber auch nicht sprechen, denn es war bei weitem nicht so kalt wie es schon mal war. Wir hatten hier in D schon deutlich kältere Winterzeiten. Zudem, hast du die 20°C zu Weihnachten schon vergessen?

Das Wetter ist viel komplexer. Warum wir in D so kalte Tage im April haben und hatten lag daran, dass die warme Meeresströmung vom Süd-Osten der USA nicht direkt an die Westküste Europas gezogen ist, sondern wegen der Erderwärmung über Grönland nach Europa. Somit hat die Meeresströmung die Kälte von Grönland zu uns gebracht.
 
Zuletzt bearbeitet:
Klima? Und dass mach dem Rekord Winter!

1. Geht es bei der Klimaerwärmung um den globalen Durchschnitt - d.h. es kann durchaus sein, dass es in bestimmten Regionen kälter wird.

2. Im Rahmen der Klimaerwärmung sind mehr Wetter-"extreme" zu erwarten.

*Edit*

Den Post von Amindia hab ich übersehen. ;-)
 
Zuletzt bearbeitet:
Zurück
Oben