Test Test: Intel „Sandy Bridge“

s!r.einSTein schrieb:
Welcher speicher ist hier zu empfehlen ? Grundsätzlich war ich imer gut mit niedrigen Latenzen bedient.

könntet ihr einige begründete Vorschläge für 4*4 oder 2 * (2*4) module machen ? danke im voraus.

günstiges 8GB Set: 8GB DDR3 TeamGroup Elite

Ich werds kaufen ^^
 
Iceberg87 schrieb:
@ HeinzS

Jepp, denke habe es verstanden.

Um es auf AMD-Verhältnisse (so wie ich gewöhnt war) zu übersetzen. Man operiert quasi im Standardtakt und nicht im C&Q-Modus. D. h. man stellt sämtliche Energiesparmodi aus un arbeitet nur noch mit voller Leistung.

Du kannst ja auch so rechnen, dass er erst mit dem Turbo modus an die 4,5GHz ran kommt. Also quasi auf 4GHz übertakten und den Turbo dann auf 4,5GHz übertakten lassen.
Oder geht das nicht?

P.S: Keine Gewährleistung meinerseits. Alles auf eigene Verantwortung
 
brabe schrieb:
Du kannst ja auch so rechnen, dass er erst mit dem Turbo modus an die 4,5GHz ran kommt. Also quasi auf 4GHz übertakten und den Turbo dann auf 4,5GHz übertakten lassen.
Oder geht das nicht?
doch das geht und sogar mit C&Q-Modus, oder wie man bei Intel sagt:
In dieser Disziplin sind alle stromsparenden Eigenschaften der jeweiligen Plattformen aktiviert, was Cool'n'Quiet, EIST, C1E und andere Dinge einschließt.

MfG
Heinz
 
HeinzS schrieb:
doch das geht und sogar mit C&Q-Modus, oder wie man bei Intel sagt:

MfG
Heinz

Ich glaube stromsparende Funktionen, haben nichts mit Turbo zu tun, soweit ich weiß ^^
Ist ja das Gegenteil. Mehr Turbo, mehr Leistung, mehr Strom.
 
war die Frage nicht ober der turbo dabei anbleibt? und nicht die Sparfunktionen?
hab ich wohl scheinbar falsch verstanden...
 
Wow, jetzt hat der Hype um eine gerade mal 15% schnellere CPU (Was wohl zu 90% dem gesteigerten Takt geschuldet sein darf) doch schon irsinnige 1000 Kommentare angenommen.

Versteht micht nicht falsch. Aber wegen 10% hier alles so zu Hypen finde ich falsch. Die Sandys sind nicht wirklich fortschritlich. Sie wurden lediglich etwas aufgehübscht und übertaktet.

Was fortschrittlich ist, ist Buldozer. Mal sehen wie sich der dann schlägt. Die Ansätze geben Grund zur Hoffnung. Aber das Hypt niemand.
 
ampre schrieb:
Wow, jetzt hat der Hype um eine gerade mal 15% schnellere CPU (Was wohl zu 90% dem gesteigerten Takt geschuldet sein darf) doch schon irsinnige 1000 Kommentare angenommen.

Versteht micht nicht falsch. Aber wegen 10% hier alles so zu Hypen finde ich falsch. Die Sandys sind nicht wirklich fortschritlich. Sie wurden lediglich etwas aufgehübscht und übertaktet.

Was fortschrittlich ist, ist Buldozer. Mal sehen wie sich der dann schlägt. Die Ansätze geben Grund zur Hoffnung. Aber das Hypt niemand.

Du hast schon mitbekommen, dass während steigerung der Leistung und Effektivität die Leistungsaufnahme gesenkt wurde sowie die Temperaturen. Sprich Preis/Leistung und Leistung/Performance gigantischweit von jeglichem Konkurrent entfernt sind?
 
Zuletzt bearbeitet:
Das ist der Weg, der schon immer gegangen wurde. Das eine geringer Strukturgröße weniger Energie verbraucht ist logisch. Aber welchen Leistungsvorteil hat man davon?

Ich sehe hier keine Revolutionären Ansatz wie bei Bulldozer. Das hier ist eher eine
Evolution als eine Revolution. Man hätte einfach mehr drauß machen können.

Statdessen verplempert man Zeit damit nen Grafikkarte in die CPU zu integrieren. Als ob der GK-Markt hier nicht genug bieten würde?

Was hat sich Intel dabei nur gedacht?
 
Zuletzt bearbeitet:
Ich sehe hier keine Revolutionären Ansatz wie bei Bulldozer. Das hier ist eher eine
Evolution als eine Revolution. Man hätte einfach mehr drauß machen können.


(Es ist ja auch "nur" ein TOCK und der entspricht nun mal einer Verbesserung der existierenden Architektur...)


EDIT: Da bin ich mir gerade selber nicht mehr sicher :D :D

EDIT2: Ok, da habe ich mich dann wohl geirrt...
 
Zuletzt bearbeitet:
Es kommt darauf an, was am Ende rauskommt. Wenn ein noch so revolutionärer Ansatz z.B. einfach zu viel Strom bedürfte und zu wenig Leistung liefert, nützt ihm seine ganze revolutionären Eigenschaften nichts (das war jetzt rein theoretisch gesprochen und nicht auf Bulldozer bezogen).

Umgekehrt kann ein einfach, vielleicht schon altes Konzept beste Endergebnisse liefern. Und um die geht es.
 
HeinzS schrieb:
eventuell an die billigen OEM PCs, die jetzt keine extra Grafikkarte mehr brauchen.

MfG
Heinz

Als ob die 10 Euro für ne billig GK noch mal was reisen würde.
Zumal die Redundanz durch eine externe GK nochmals erheblich steigen drüfte.
 
Zuletzt bearbeitet:
ampre schrieb:
Das ist der Weg, der schon immer gegangen wurde. Das eine geringer Strukturgröße weniger Energie verbraucht ist logisch. Aber welchen Leistungsvorteil hat man davon?

Ich sehe hier keine Revolutionären Ansatz wie bei Bulldozer. Das hier ist eher eine
Evolution als eine Revolution. Man hätte einfach mehr drauß machen können.

Statdessen verplempert man Zeit damit nen Grafikkarte in die CPU zu integrieren. Als ob der GK-Markt hier nicht genug bieten würde?

Was hat sich Intel dabei nur gedacht?

Macht das der Bulldozer nicht oder was? APU?!
 
Bulldozer macht auch APU aber nicht in allen Bereichen wie bei Intel.
So lauten zumal die ersten Informationen und ich hoffe die machen diesen Schritt nicht mit.
 
ampre schrieb:
Bulldozer macht auch APU aber nicht in allen Bereichen wie bei Intel.
So lauten zumal die ersten Informationen und ich hoffe die machen diesen Schritt nicht mit.

Was meinst du mit allen Bereichen?
 
Die Performancebereich wie z.b. der I7 2600k würde bei AMD wahrscheinlich ohne APU kommen.
 
Unwahrscheinlich.

Die GPU ist fest in die Architektur integriert und es wäre schwachsinn die zu deaktivieren.
Kann man doch gleich mit vermarkten ;)
 
Zurück
Oben