News Stärkster Pentium aller Zeiten: Ab 2017 immer mit zwei Kernen und vier Threads

Ich finde es vor allem für günstige Spielerechner interessant. Ja. Für Spiele. Der kleinste Pentium kostet aktuell 75 Euro und man bekommt jetzt auch HT und ist damit nicht viel schlechter unterwegs als mit einem i3, den man dann vermutlich eher genommen hat. Das sind nochmal 40-50 Euro Ersparnis bei der CPU. Die nimmt man gerne mit...

Denke allerdings auch, dass das ein Anzeichen dafür ist, dass man da mit der nächsten Serie die Typen nach unten runterbricht.

Celeron = 2C
Pentium = 2C/4T
i3 = 4C
i5 = 4C/8T
i7 = 6C/12T

Denke hab das richtige gemacht für den Zweitrechner (meine Freundin will ab und zu auch simsen) noch zu warten und nicht den 6100 zu holen. Nun wird es der kleine Pentium mit einer 1050.
 
deo schrieb:
Die AMD Bristol Ridge kommen viel zu spät auf den Markt. AMD richtet ihr APU Konzept noch zu Grunde, wegen Untätigkeit.
Bristol Ridge kann man doch teils sogar mit AM4 Board schon kaufen. Der große Marktstart wird nur wegen Zen zurückgehalten. Raven Ridge wurde laut Gerüchten etwas nach hinten verschoben, aber war immer schon für das 2 Halbjahr 2017 geplant.
 
Marcel55 schrieb:
Deine Erinnerung trügt, das Schema war seit der Einführung von Core i in 2009 auf dem Desktop so wie es heute ist.

Da muss ich dir leider Wiedersprechen.
Die Erste Core i5 Generation hatte sowohl 4C/4T --> 7xx und auch 2C/4T -->6xx
 
Finde die 2C/4T Pentium auch sehr interessant für Selbstbau-NAS, sollte auch schnell genug sein einen kleinen Server mit mehreren VMs laufen zu lassen. Dass ECC Unterstzung gestrichen wurde ist zwar ärgerlich, alledings war es auch bei Skylake schon so, dass man für ECC die teuren C23X Chipsätze kaufen musste, wovon der C232 nicht mal Vt-x konnte. Außerdem haben auch die meisten Consumer-NAS von Synology oder QNAP auch keinen ECC RAM verbaut.
 
>Pentium G4620 -> 102€ Geizhals

Wenn man richtig sparen will, kann man den Intel Pentium G4560, 2x 3.50GHz, boxed für 72€ nehmen.
 
bin gespannt auf den test. der G4560 könnte ne neue standardempfehlung für einstiegsgamingrechner werden.

Intel "könnte" bei den CPUs unterhalb der Core i aber durchaus mal klarere namen vergeben:freak:
 
Keine ECC mehr mit Pentium? Das wäre extrem schade. Für kleine Server auf Intel-Basis bedeutet dies ca. 60 € Preiserhöhung pro Gerät durch i3 statt Pentium.

Oder kommen als Ersatz low-end-Xeons auf den Markt?
 
AVX, Verschlüsselungsbefehle in Hardware, Hyperthreading, Virtualisierungsfunktionen, ... es gibt so viele Features, die bei den LowCost-Produkten rein aus Marketinggründen/Strategie gekürzt werden, dass es wirklich zum Heulen ist. Ich empfinde das dann auch bei uns hier in den Kaufberatungen als schwierig, denn je nach Anwendungsfall könnte die Performance eines Pentium reichen, doch auf Grund eines fehlenden Features er schlichtweg doch nicht geeignet sein.
 
@Marcel55

Stimmt waren die Notebook dinger sorry naja da gab es ja auch zwei Kern i7 mit HT. Echt bei den vielen Namen und Nummer soll noch einer durchblicken. ;-)

Naja auf dem Lapi bis jetzt immer nur AMD die hatten dass bessere P/L und die bessere iGPU.
 
Ich kann die Aufregung zum Thema ECC nicht ganz nachvollziehen. Wirklich relevant ist dies doch nur bei Serverfarmen, weil die (in Summe) eben genug RAM haben um so etwas halbwegs Regelmäßig zu beobachten.

Für Heimanwender dürfte das kaum ein Problem sein. Dann hat man halt 0.x% Chance pro Jahr das 1 Bit in einem Urlaubsfoto umfällt .. ist doch völlig egal. Da ist vermutlich die Wahrscheinlichkeit dass die gesamte Festplatte ausfällt um ein gutes Stück höher.
 
Hab aktuell den G4400 in mein NAS mit ein Plex Media Server am Laufen und guck schon nach ein Upgrade, da die CPU zu lahm für Transcoding wird aber 2 neue Threads via HT macht sicher kaum ein unterschied bei Video-Transcoding oder? Also maximal 20% mehr Leistung schätze ich mal oder liege ich da falsch?
 
deo schrieb:
Wenn man richtig sparen will, kann man den Intel Pentium G4560, 2x 3.50GHz, boxed für 72€ nehmen.

Und wenn es Intel drauf anlegt, könnte es durchaus auch Boards geben, die OC für non-K Modelle erlauben. Technisch ist das alles möglich, auch wenn es gewisse Beschränkungen gibt. Intel wappnet sich zum Konkurrenzkampf. Mit 11 Milliarden Dollar Gewinn pro Jahr offenbar ein Akt, wo Intel nicht ins Schwitzen kommt.
 
Zuletzt bearbeitet:
Cytrox schrieb:
Ich kann die Aufregung zum Thema ECC nicht ganz nachvollziehen. Wirklich relevant ist dies doch nur bei Serverfarmen, weil die (in Summe) eben genug RAM haben um so etwas halbwegs Regelmäßig zu beobachten.

Für Heimanwender dürfte das kaum ein Problem sein. Dann hat man halt 0.x% Chance pro Jahr das 1 Bit in einem Urlaubsfoto umfällt .. ist doch völlig egal. Da ist vermutlich die Wahrscheinlichkeit dass die gesamte Festplatte ausfällt um ein gutes Stück höher.

http://www.computerworld.com/articl...es-vastly-higher-than-previously-thought.html

"The study, which used tens of thousands of Google's servers, showed that about 8.2% of all dual in-line memory modules (DIMM) are affected by correctable errors and that an average DIMM experiences about 3,700 correctable errors per year."

3700 bitfehler pro dimm(!)/jahr - deiner meinung nach kann also ruhig mal was kaputt gehen (crash, korrupte daten auf der platte). na dann...
 
Weil das hier ein paar mal aufgekommen ist: Ohne AVX1 und 2 und ohne FMA läuft vektorisierter Code nicht (viel) schneller wie auf einem Core 2. Rein von der theoretischen Peak Performance ist das schon mal eine Reduktion auf ein viertel der Performance (kein FMA + halbe Vektorbreite mit SSE4).
Die Frage ist dann, wie gut sind die Codes vektorisiert und das ist leider schwer zu beantworten. Aber alle neueren Benchmarks (seit 2011 Sandy Bridge) sollten AVX verwenden, jede Physik-Engine sollte zumindest AVX verwenden.

Im Übrigen ist auch denkbar, dass weitere Features innerhalb eines Cores deaktiviert wurden, z.b. eine der Execution Units. Leider ist mir kein Test bekannt, der das mal überprüft hat.
 
0x8100 schrieb:
3700 bitfehler pro dimm(!)/jahr - deiner meinung nach kann also ruhig mal was kaputt gehen (crash, korrupte daten auf der platte). na dann...

Lies nochmal genauer, 8% um einen Riegel zu erwischen bei welchem sich überhaupt Fehler beobachten lassen. D.h. das sind eigentlich defekte/minderwertige Riegel.

Und bei diesen werden es dann deutlich mehr als die ~4k Fehler im Jahr (d.h. ~10 pro Tag?) gewesen sein, weil 4k eben der Durchschnitt über alle war. D.h. das ist etwas dass dann nicht zufällig unbemerkt passiert, sondern etwas dass auch in Memtest recht schnell beobachten lassen sollte.

Ganz abgesehen davon das eine pro-DIMM Betrachtung hier wenig Sinn macht, wenn die Grundlage des ganzen Auslastung auf Google-Niveau ist. Ja, wie erwähnt macht das Zeug für Serverfarmen Sinn.
 
Wow, das sind tolle Nachrichten (zumindest für mich in der Firma)! :)

Bereitet sich da schon jemand auf die kleinen Ryzen vor? Ich wüsste sonst nicht warum Intel diesen Schritt im Vorraus gehen sollte?!
 
Cytrox schrieb:
Lies nochmal genauer, 8% um einen Riegel zu erwischen bei welchem sich überhaupt Fehler beobachten lassen. D.h. das sind eigentlich defekte/minderwertige Riegel.

Und bei diesen werden es dann deutlich mehr als die ~4k Fehler im Jahr (d.h. ~10 pro Tag?) gewesen sein, weil 4k eben der Durchschnitt über alle war. D.h. das ist etwas dass dann nicht zufällig unbemerkt passiert, sondern etwas dass auch in Memtest recht schnell beobachten lassen sollte.

Ganz abgesehen davon das eine pro-DIMM Betrachtung hier wenig Sinn macht, wenn die Grundlage des ganzen Auslastung auf Google-Niveau ist. Ja, wie erwähnt macht das Zeug für Serverfarmen Sinn.

nein, das steht da nicht. laut http://www.cs.toronto.edu/~bianca/papers/sigmetrics09.pdf bezieht sich diese error rate auf alle dimms. der durchschnittliche dimm hatte ~3700 correctable errors pro jahr. zu dieser inzw. älteren studie kommen inzwischen angriffe wie rowhammer. eigentlich sollte ecc eher standard als die ausnahme sein.
 
Zurück
Oben