News Intel Polaris: 80 Kerne, 1 Teraflop bei 62 Watt

Wegen Multicore für zuhause.
Schaut euch doch einmal ein gescheites MB auf der Nvidia HP an.
Im Profibereich.
Da kann man 4 QX reinstecken mit sehr viel Ram.
 
Das ist doch mal doll,was die Schienetzen wieder so treiben. Das für den Desktop rechner und alle sind zufrieden,denn noch 4x8800 GTX,
4GB Ram und 24 Zoll TFT2! :-) Und dann noch alles Optimieren und das Gamer leben ist Top. (was führ ein traum)
 
ein schöner Traum, allerdings wird dann das bisschen Ram zum Bremser, sind ja nur 4 GB, ich würde dann schon zu 8 GB raten LOL
 
Muffin888 schrieb:
@Eagle-PsyX-

Nunja,

Die Aufgaben könnten in immer kleinere teilbereiche gegliedert werden und so könnten die einzelnen bereiche auf die verschiedenen prozzis verteilt werden. Vor einer weile gab es hier doch einen Artikel zum Raytracing, wo gezeigt wurde wie perfekt Raytracing bei Multicore skaliert! Beim Raytracing kann das Bild ja schließlich viele kleine Bildbereiche unterteilt werden. Jeder Ausschnitt wird dann von einem Prozzi berechnet. Bei Spielen könnten Physikeffekte auf die ganzen prozzis verteilt werden. Da gibt es eigentlich kaum grenzen. Sobald sich eine aufgabe in bereiche unterteilen lässt kann man sie auch auf mehrere Prozesse aufteilen und somit multicore fähig machen... Da gibt es eigentlich keine grenzen.

Es kann natürlich sein das wir irgendwann komplett neue Konzepte zum Entwerfen von programmen erlernen müssen, aber so ist das in der Technik halt. Das ist ja das spannende an der ganzen geschichte, es ist dynamisch, es gibt immer was neues! Ich hoffe das bleibt auch so.

Bis dann

Klar, wir "Online Arts" www.online-arts.de benutzten Raytracing (Strahlenwürfe) seit über 3 jahren und auf allen Rechner seit über 3 Jahren funktionierte es problemlos! auch mit Singlecore, ich seh natürlich den Vorteil von MultiCore, doch ist es absurt zu glauben dass jetzt alle aufwendige Programme/Spiele für MultiCore umgeschreiben werden. Dir ist schon klar das es auch in Zukunft Singlecore Prozessoren geben wird ;) .

Das mit den neuem Konzept wird schon intressant, könnts mir so bei einem schönen Spiel mal vorstellen:
1. Kern, System (WinVista in Zukunft wohl)
2. Kern, AntiVirus
3. Kern, Spiel [an sich, Hauptschleife]
4. Kern, Spiel, Physik
5. Kern, Spiel, FX-Effekte
6. Kern, Spiel, GFX-Effekte
7. Kern, Spiel, Raytracing
und evtl. 8.Kern auch Raytracing.
Wenn ein Spiel jemals wirklich 5-6 Kerne auslasten wird, dann haben die Dualcore/Singlecore benutzter ein Problem. Zudem find ich wirklich nicht Sinnvoll dann 1-8 Kerne vielleicht für EIN Programm zu benutzten, bzw. ein Programm was mehrere Kerne benutzt. Dann verschwindet eigentlich der GANZE Vorteil an der Sache: verschiedene sachen gleichzeitig zu machen.
Wie gesagt, für mich ist nach dem QuadCore in den nächsten 3-5 Jahren sicher nix anfzufangen.

Ahja, okay, in einen einzigen Punkt geb ich diesen 80 Kern Monster eine Chance! Im Server/ Workstation-Bereich, für CAD, Rentnering etc.
Aber im Allgemein find ich die Forschung gut, doch die Einstellungen von mehr und mehr Kernen dämlich.
 
Zuletzt bearbeitet: (ergänzung)
Dieses krampfhafte Multicore-Getue bringt uns aber absehbar auch nicht wirklich weiter.... was nützen mir 100 "dumme" und rechenschwache (weil niedrig getaktete) Kerne, wenn sich gewisse Aufgaben am PC einfach nicht weiter parallelisieren lassen?

Gewisse Dinge MÜSSEN sequentiel abgearbeitet werden, man kann ein Programm aus 80 Befehlen nicht so verarbeiten, dass jeder Kern einen Befehl macht und dann ist nach ein, zwei Takten das ganze Programm fertig. Das ist Humbug... Insofern sollte man sich meiner Meinung nach schon auf die Effizienz eines einzelnen Kerns konzentrieren und nicht blindwütig irgendwelche utopischen Anzahlen von kleinen Recheneinheiten zusammenpappen...

Ich behaupte, das bei entsprechend angepassten und optimierten Betriebssystemen und gleicher Nutzung wie heute (Internet, Office, vma. Spiele und Videobearbeitung) ein aus recheneffiziensoptimierten Singlekernen bestehender 8 oder 16-Wege-Prozessor einem solchen quasi-FPGA-80-"Dumm"-Kern-Prozessor (^^) überlegen ist.

Gruß ErichH.
 
Faint schrieb:
das ist eine STUDIE und kein produkt für den markt!!!

Sicher, aber sie zeigt die Tendenz, die sich ja auch schon in der Realität wiederspiegelt (siehe Vierkern-/Achtkernprozessoren im nächsten Jahr).
 
is ja krass ... wie schnell der wohl superpi 1m durchrechnet? :D

wieviel gigaflops schafft den zB ein conroe 6600 zum vergleich?
 
super pi wird auch nicht schneller durchgerechnet, weil die nächste rechnung mit dem ergebnis der vorigen weiterrechnet. das heißt es kann nicht auf mehrere cores aufgeteilt werden.
 
Weiter so, der Stromverbrauch einer aktuellen CPU und gerade die GPU ist ja enorm, eher schon katastrophal. Wer will schon eine 500 Watt Heizung den ganzen Tag am laufen haben.
 
also das mit denmehreren core is ja ne feine sache da sag ich ja auch nix gegen...schneller sparsamer was will man mehr...aber meines erachtens geht das viel zu flott...ich mein im hinblick auf diesoftware...selbst dualcore software ist noch nichtemal ganz ausgereift
 
MoDw schrieb:
also das mit denmehreren core is ja ne feine sache da sag ich ja auch nix gegen...schneller sparsamer was will man mehr...aber meines erachtens geht das viel zu flott...ich mein im hinblick auf diesoftware...selbst dualcore software ist noch nichtemal ganz ausgereift

Du holst einen 1-Jahre alten Thread wieder hoch und hast noch nichtmal eine Ahnung, worum es genau geht?

Diesen Prozessor kannst du niemals mit einem Dual-Core, wie du ihn hast, vergleichen!
Das sind zwei absolut unterschiedliche Paar Schuhe
 
Zurück
Oben