Leserartikel Der Intel Celeron G1610 - Billig und sparsam

Kann der Tester zufällig eine Aussage darüber treffen ob die integrierte Grafikeinheit des Celerons in der Lage ist die Source Engine (CSS / HL2) anständig darzustellen. Mehr als genau diesen Zweck müsste die CPU bei mir nicht erfüllen. (Falls es nicht zu große Umstände bereit.)
 
Ich habe inzwischen einen zweiten PC in dieser Klasse gebaut und dieses mal mit dem G1610. Ich habe zwar CSS nicht getestet aber 3DMARK06 drüber laufen lassen. Hier der Vergleich zum i3-3220:

G1610i3-3220
SM 2.011121127
SM 3.014681485
CPU26653864
Gesamt34963625

Somit ist klar, dass selbst im G1610 die Intel HD 2500 steckt. Der einzige Unterschied scheinen die deaktivierten Features zu sein.
Ich denke, die Leistung sollte für so alte Spiele vollkommen ausreichen.

Edit:
Alle Werte beziehen sich auf Dual Channel Arbeitsspeicher und aktivierter dynamischer Übertaktung der Grafikkarte. Gerade wenn die Grafikkarte gefordert wird, sollte wirklich Dual Channel verwendet werden.
 
Zuletzt bearbeitet:
Besten Dank für die Info, ich denke dann wird der Celeron den genannten Zweck für mich erfüllen. Hinsichtlich der CPU Leistung scheint er nach PassMark etwas schneller als ein E8200 zu sein, dessen Leistungsprofil absolut ausreichend ist.

Kann irgendwer eine Aussage darüber treffen welchen Unterschied ich Sache Grafikleistung zwischen einer nVidia Quadro FX 380 und dem Celeron zu erwarten habe. Die genannte nV Karte hätte ich noch, allerdings basiert die (afaik) auf einer GF 9400. Ob das besser ist?

Viele Grüße
 
Die wird mehr Strom fressen als das sonstige Gesamtsystem. Kaum schneller.
 
Vielen Dank für die Antworten. Ich denke dann werde ich den G1610 nun bestellen. Nachdem die Dinge für Neupreis hier im Forum und über Neupreis bei eBay weg gehen -> Nehme ich ihn doch neu und unausgepackt. ;)
 
Habe den Intel Celeron G1610 auf ein Asrock B75M-DGS verbaut. Bin soweit zufrieden, nur mit der Grafikleistung nicht. Nach meinen Recherchen im Internet gibt es 2 Versionen dieser CPU. Die, die man oft sieht, z.B. aufn You Tube Video http://www.youtube.com/watch?v=Z4Wwb_iuMu4, haben einen Speicher BUS von 128bit, die ich bekommen habe hat nur 64bit Anbindung. Habe mit GPU-Z 0.7.0 auslesen lassen.
Könnte mal jemand seine GPU-Z Werte zur Intel Celeron G1610 schreiben, würde mich mal interessieren, ob noch mehr von den Dingern im Umlauf sind.:rolleyes:

MfG the26
 
Die 64 und 128 bit kommen wahrscheinlich daher, dass einmal ein einzelner, das andere mal zwei Speicherriegel. Bei Ivy Bridge sind zwei 64-bit Speichercontroller verbaut. Das sollte sich auch auf die Grafikleistung etwas auswirken.

Es gibt keine zwei Modelle. Vllt wird auch die Busbreite im einen Fall falsch berechnet.
 
Zuletzt bearbeitet:
Dual Channel?
 
misu schrieb:
Die 64 und 128 bit kommen wahrscheinlich daher, dass einmal ein einzelner, das andere mal zwei Speicherriegel. Bei Ivy Bridge sind zwei 64-bit Speichercontroller verbaut. Das sollte sich auch auf die Grafikleistung etwas auswirken.

Es gibt keine zwei Modelle. Vllt wird auch die Busbreite im einen Fall falsch berechnet.

Hallo, danke für die Info! Es liegt tatsächlich am 2. Riegel RAM, habe jetzt mit dem 2. Riegel auch 128bit Breite und die Grafikleistung ist damit auch gestiegen.:)

MfG
 
Warum sollte dieser den nicht haben? Ist auch nur ein Ivy
 
Weil es in den Thread passt: Habe die CPU nun endlich in Betrieb. Für das gesuchte Anwendungsszenario passt die CPU hervorragend. Stromsparend, für die Source Engine (@1440x900x32) reicht die Leistung ohne qualitätssteigernde Maßnahmen gut aus. Ich verwende aus Ermanglung ordentlichen Speichers nur 1066Mhz DDR 3 Speicher > mit 1600er soll das Ganze noch ne gute Ecke besser laufen. Werde dann mal Benches nachliefern.

Für mich ist die CPU ein super Spagat zwischen einer alten E8200 CPU (da ist der G1610 besser) und einem leichtgewichtigen Allroundrechner.
 
1600 bringt garnix. der kann nur 1333 :)
 
Thx :) Da hast du mir gerade noch ein paar € erspart. Thx
 
Wenn man den IGP nutzt, erreicht man die beste Performance mit Dual Channel. Solltest Du dir also neuen RAM zulegen wollen und den IGP nutzen -> DC.
 
Im DC läuft er bereits. Konnte auch den Wegfall von 64Bit auf dem Speichercontroller beobachten. Bringt das Overclocking der Speichers durch das Mainboard etwas hinsichtlich der Leistung der IGP?
 
Viel bringt es nicht da sich ja auch die Reaktionszeiten verschlechtern.
Und die Grafikleistung ansich ist ja auch recht schwach.
Aber zumindest ist es relativ leicht da dein RAM, wenn es nicht gerade uralt-RAM ist, 1333MHz CL9 durch einfaches umstellen schaffen sollte.
Und ob du dann auf CL8 optimieren kannst?
 
Zuletzt bearbeitet:
Falls der RAM sich übertakten lässt, mache ich nochmal ein paar Vergleiche mit den Spielen, die ich in Steam habe. Vielleicht hilft dem einen oder anderen das ja als Anhaltspunkt.

Habe ein wenig experimentiert. Mit den oben genannten Einstellungen habe ich einen marginalen Geschwindigkeitsrückgang (von DDR-1066 auf DDR-1333) feststellen müssen. Vermutlich werden die angepassten Timings dafür verantwortlich sein.

-> Dann habe ich mit mit dem Overclocking der iGPU befasst. Hier konnte ich ohne Anhebung der Core-Spannung ein Speedup (also den Turbo-Maximaltakt) von 1050Mhz auf 1200Mhz durchführen. Der HL integrierte Benchmark lieferte als Average: (1400x900x32 - Alles high, aber keine qualitätssteigernden Maßnahmen)

Core @ 1050 + Mem @ 1066 : 84,72fps
Core @ 1050 + Mem @ 1333 : 79,85fps
Core @ 1200 + Mem @ 1333 : 99,48fps

-> Die letzte Konfiguration habe ich nun nicht getestet. Nun probiere ich, ob CS:GO mit angemessenen Frameraten läuft.

Eine Aussage zu CS:GO (also die aufgebohrte Source Engine = Left 4 Dead 2) kann ich nur in soweit treffen: Flüssiges Spielen ist mit allen Settings auf low nicht möglich. Das Spiel mutet zwar flüssig an, dennoch merkt man, dass es an der unteren Grenze ist. Aber mein Anwendungsszenario erfüllt die Grafik des Celeron G1610 (also die Ivy HD Graphics) durchaus.

Viele Grüße
 
Zuletzt bearbeitet:
Muss nochmal fragen wegen des Bugs. Wenn ich beim G1610 eine Grafikkarte dabei habe, tritt der Bug ja nicht auf?!
 
Zurück
Oben