News Intels „Knights Corner“ erreicht über 1 TFLOP/s

Aspekte, die für die Markteinführung von Knights Corner als Co-Prozessor sprechen:
- Enorme Steigerung der Rechenleistung pro Node möglich, vergleichbar zu den Next-Gen-GPUs
- Gewohnte Programmierumgebungen können weitergenutzt werden
- CPUs und Co-Prozessoren aus einer Hand -> Ein Ansprechpartner für Hardware-und Softwaresupport, attraktive Lieferverträge denkbar
- Konkurrenz belebt das Geschäft und fördert Weiterentwicklung
 
@FatFire: könntest du bitte mal diese besserwisserei unterlassen? es sollte wohl klar sein, dass wenn karre oder auch wer anderes das wort "shader" mit recheneinheit in verbindung bringt, der hardwareshader gemeint ist und nichts anderes! der begriff wird hier im forum tagtäglich zig mal so verwandt und niemand hat ein problem damit. niemand außer dir.

und ob bulldozer oder xeon ändert auch nichts am gegenstand der diskussion. du hast bulldozer gesagt, also hab ich bulldozer aufgegriffen. obs nun bulldozer oder xeon ist, es war wohl jedem klar, dass eine übliche x86-basierte-server-cpu gemeint war und wenn ein bulldozersystem knights corner zulässt, dann kann mans auch so einsetzen. ob intel mit ihren copros auch auf amd-servern nvidia konkurrenz machen will oder nicht, tut doch grad absolut nichts zur sache.

@theorist: danke. ich denke das wäre aktuell wohl das stärkste argument:
- CPUs und Co-Prozessoren aus einer Hand -> Ein Ansprechpartner für Hardware-und Softwaresupport, attraktive Lieferverträge denkbar

programmierumgebungen sind meist eh individuallösungen, von daher sollte die implementierung gpus imho meist möglich sein. ist sicher auch ein grund, warum nvidia c/++/# entsprechend in cuda integriert hat...
 
Zuletzt bearbeitet:
Lübke schrieb:
niemand hat ein problem damit. niemand außer dir.
Ihr redet aber brutal aneinander vorbei und das nur weil keiner die richtigen Begrifflichkeiten nutzt. Dann darf man damit ja wohl doch mal ein Problem haben, oder?

Und zu der Bulldozer-Tesla-KC-Diskussion: Ich habe Dir als Erster geschrieben, dass es keinen Sinn macht KC und Tesla zu kombinieren, dass wolltest Du mir nicht glauben, weil die sich ja so toll "ergänzen", dann schreiben Dir einige andere das es keinen Sinn macht und ich bin für Dich nur ein Besserwisser? Laut Dir waren vorhin noch Bulldozer und KC total sinnlos, weil so ähnlich und jetzt wäre die Kombi für Dich auf einmal das Normalste von der Welt und es spielt doch gar keine Rolle ob Bulldozer oder Xeon mit KC zusammengepackt wird?

Ey, Sorry, aber für jemanden der so wenig Ahnung hat und so oft seine Meinung ändert bist Du verdammt besserwisserisch.

Ein Shader ist nur ein Programm. Lest euch die englische Wikipedia zu Shader durch, dann seid ihr schlauer. Wir Deutschen haben da einfach Mist gebaut. Hier ein paar Beispiele:
A hardware shader, at the lowest level, is simply a binary program that is uploaded to the GPU through the system bus.
Moderne Grafikkarten stellen so genannte Hardware-Shader zur Verfügung. Diese Shader sind ausführbare Mini-Programme, welche zum Erzeugen von 3D-Effekten benutzt werden.
Hardware-Shader bedeutet einfach nur, dass im Gegensatz zu einem Software-Shader dieses Programm in speziell dafür vorgesehener Hardware ausgeführt wird. Es gibt nämlich auch Shader die als Postprocess von der CPU berechnet werden können (nur eben strunzlangsam).

Gruß FatFire

@Lübke: ich will mich überhaupt nicht mit Dir persönlich oder Karre oder sonstwem anlegen. Aber je mehr Quatsch einer schreibt, umso mehr halte ich dagegen. Also entweder bringst Du mich so mit Unwissen auf die Palme, dass die Mods eingreifen, Du fängst an über meine Argumente nachzudenken oder Du hörst einfach auf zu schreiben.
 
Ihr redet aber brutal aneinander vorbei und das nur weil keiner die richtigen Begrifflichkeiten nutzt. Dann darf man damit ja wohl doch mal ein Problem haben, oder?
dann sag das doch einfach so anstatt karre oder mich oder andere direkt niederzumachen. umgangssprachlich ist der begriff shader im deutschen, insbesondere auch in diesem forum ein ausdruck für die recheneinheit eines ordinären grafikprozessors. ich weiß, das karre die begriffe da ein wenig durcheinander schmeißt, aber besserwisserei ist da absolut kontraproduktiv. keinem hilfts zu wissen, wie der begriff in england definiert ist. wenn überhaupt würdes was bringen, wenn du den korrekten deutschen begriff einbringst. sinnvoller wäre es aber, den inhaltlichen fehler zu erörtern, statt auf begriffen rumzureiten


Und zu der Bulldozer-Tesla-KC-Diskussion: Ich habe Dir als Erster geschrieben, dass es keinen Sinn macht KC und Tesla zu kombinieren, dass wolltest Du mir nicht glauben, weil die sich ja so toll "ergänzen", dann schreiben Dir einige andere das es keinen Sinn macht und ich bin für Dich nur ein Besserwisser?

so fing dein beitrag an:
So sehr Du Dir jetzt Mühe gibst und versuchst Dich amateurhaft rauszureden:
danach kamen noch ein paar noch nicht erwiesene vermutungen deinerseits und das wars zur begründung. und das soll ich ernst nehmen?
wie man es richtig macht, kannst du an callunas beiträgen sehen. er war auch anderer meinung als ich. aber er hats vernünftig begründet und mit mir diskutiert anstatt von oben herab mit als dumm hinzustellen. und darum konnte er mich überzeugen.

Laut Dir waren vorhin noch Bulldozer und KC total sinnlos, weil so ähnlich und jetzt wäre die Kombi für Dich auf einmal das Normalste von der Welt und es spielt doch gar keine Rolle ob Bulldozer oder Xeon mit KC zusammengepackt wird?
und laut dir waren vorhin noch bulldozer und kc total sinnvoll und auf einmal ist es unmöglich? merkste was?

Ey, Sorry, aber für jemanden der so wenig Ahnung hat und so oft seine Meinung ändert bist Du verdammt besserwisserisch.
und da gehts schon wieder weiter mit den beleidigungen. ich habe meine meinung einmal revidiert weil ich eines besseren belehrt wurde. ich bin mal gespannt, ob du ebenfalls lernfähig bist.

@Lübke: ich will mich überhaupt nicht mit Dir persönlich oder Karre oder sonstwem anlegen.
aber genau das machst du mit deiner herablassenden art und weise. mag ja sein dass du recht hast, kann ebenso sein, dass du dich mal irrst. das ist nicht wichtig. wichtig ist, dass man es vernünftig kommuniziert. ich hab mich eben auch geirrt, und hab ich etwa calluna oder theorist runtergemacht weil ich anderer meinung war? ich denke nicht.

wir sind hier in einem forum. hier sind user jeden alters und jeden bildungsgrades vertreten und jeder hat einen anderen kenntnisstand und jeder hat seine eigene meinung und auch ein recht auf selbige. das solltest du respektieren. sinn eines forums ist es, etwas zu diskutieren. dadurch kann man etwas lernen.
ich habe heute was zum kc gelernt und ich hoffe du lernst was zum thema respekt im forum.
 
Zuletzt bearbeitet:
@Kasmopaya

Ist Tesla eine GPU? Wenn man es genau nimmt, dann bezeichnet CPU und GPU den Verwendungszweck eines Prozessors.

Und einen Punkt scheinst du zu vergessen: Wie schnell wäre eine Tesla / Quadro als GPU, wenn auf die "fixed Functions", etwa für die Rasterisierung, verzichtet werden und die Rechenleistung für eine Software-Rendering-Pipeline benutzt werden würde? Ist es nicht das, woran Larrabee gescheitert ist? Um das gleiche wie eine Grafikkarte wie die von Nvidia oder AMD zu leisten, hätte die Karte eine weitaus höhere allgemeine Rechenleistung benötigt als diese GPUs, um das Fehlen von fixed Functions zu kompensieren. (Der Sinn oder Unsinn dieses Vorhabens ist ein anderes Thema.)

Und das eine Funktion in Hardware schneller ist als in Software, ist ja wohl etwas, das wir hier alle wissen... das hat auch QuickSynth wieder gezeigt, welches beim Encoding schneller ist als jede GPU.

Genau aus diesem Grund kann man auch nicht vom "Versagen" von Larrabee als GPU auf die Eignung von Larrabee als GPGPU (bzw. jetzt schlicht als Co-Prozessor für genau die Rechenaufgaben, bei denen Vektorprozessoren wie GPUs von Vorteil sind) schließen, da für diesen Zweck die Fixed Functions nicht benötigt werden.

Und wie es wirklich wird, muss die Praxis zeigen. Denn wie ich schon sagte, ich nutze selbst die Rechenleistung von GPUs mit Matlab.
 
Zuletzt bearbeitet:
Was ich auch für den Heimgebrauch interessant finde, ist die Tatsache, dass es sich hier ja um stinknormale x86 Cores handelt. Wenn ich nun einen Knights Corner Coprozessor habe, kann ich JEDES Programm, was eben entsprechend Multi-Threaded ist, darauf ausführen bzw. es damit beschleunigen. Gerade im Home Bereich ein Riesenvorteil, die Profis schreiben ihre Sachen eben in OpenCL um oder entsprechende Schnittstellenunterstützung ist eh schon vorhanden, aber im Desktop-Bereich gibts das eben nicht so.

Wär schon lustig mal CineBench drauf laufen zu lassen, mit 200 Threads :D
Oder auch Videos konvertieren oder Anno drauf zocken oder mal ein Spiel in Software spielen oder mal jedem Windows Dienst nen eigenen Kern geben oder extreme Virtualisierung nutzen oder in Bildbearbeitungsprogrammen immer flüssig arbeiten (auch ohne GPU) oder für Grabber PCs mit Fraps und Co bestimmt auch mal nett, oder oder oder.

Klingt vielleicht nicht alles sinnvoll, ist aber halt extrem spannend, da jedes Programm läuft. Mal gespannt wie sich das entwickelt. Gibts denn schon Infos über einen etwaigen Massenmarktrelease als PCIe Co-Prozessor Steckkarte für Jedermann? Dürfte in 22nm ja nur 100-150W verbrauchen, das lässt sich doch auch mit Radiallüftern nett kühlen und wie gesagt, es gibt einen Haufen Anwendungsbiete. Einzig der Preis wär dann so ne Sache....für das Topmodell, falls es denn im Consumermarkt kommt, wird man schon 500-1000€ einplanen müssen.

Ach verdammt, ich will das Teil haben! :D
Würde sich so unglaublich schick neben der neuen 7970 und dem Ivy Quad @ 6GHz machen :king:
 
@Felix

So einfach ist es leider nicht. Die Software muss erst für Knights Corner portiert werden.

Und das es für den Konsumermarkt so eine Karte geben wird, halte ich für sehr unwahrscheinlich. Für den Konsumermarkt integriert Intel in die CPUs AVX / AVX2. Darin liegt viel Leistungspotential.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
für GPUs sind dann Teslas und Quadros zuständig.

Aber nicht zwagsläufig besser.....
Je nachdem was man macht dürfte Knights Corner ein deutliches Vielfaches schneller sein, als jetzige GPU Lösungen. Konkret geht es ja um die Matrixmulitplikation(das unterschlägt die News auf CB :rolleyes:), die ansich nicht allzu selten benutzt wird .;)
 
Zuletzt bearbeitet:
calluna schrieb:
@Felix

So einfach ist es leider nicht. Die Software muss erst für Knights Corner portiert werden.

Und das es für den Konsumermarkt so eine Karte geben wird, halte ich für sehr unwahrscheinlich.

Ähm nein, MIC basiert auf Pentium II ähnlichen x86-Kernen, sprich, es nutzt den ganz normalen Befehlssatz der normalen CPUs. Es läuft also jede Software seid dem ersten IBM-PC (wenn man von den restlichen Limitierungen abseits des Standardbefehlssatzes absieht).

Ob das dann schnell oder effizient oder gut angepasst ist, steht auf einem anderen Papier. Prinzipiell ist aber erstmal jede PC Software lauffähig.

Für den Konsumermarkt integriert Intel in die CPUs AVX / AVX2. Darin liegt viel Leistungspotential

Was hat denn AVX mit MIC zu tun? Klar, bei angepasster, davon profitierender Software bringt AVX teils recht viel aber das hat doch nichts mit MIC zu tun.

Die MIC Idee ist es, das Prinzip von Grafikkarten (massives SIMD für eine hohe GFLOPs Leistung pro mm²) auf den klassichen x86 Befehlssatz zu bringen und dann auch gleich noch von entsprechenden CPU Kernen als Steuer-/Zusatzeinheiten zu profitieren.

Das ist ja auch grad der Clou, dass du deine Software eben nicht anpassen musst (siehe oben). Du kannst deinen Code durch eine erneute Kompilierung mit dem Intel-Compiler auf Knights Corner optimieren, aber das geht schnell und ist kein muss. Anders als bei normalen GPUs, die immer auf OpenCL/CUDA/Stream angewiesen sind.

Es wird wschl. schon eine Consumerkarte geben, einfach weil bestimmt auch viele Normalos an dem Prinzip interessiert sind (z.B. Hobby CGI/Videoschnitt etc.).
 
@Felix

Würde der Prozessor in einen Computer als CPU integriert werden, würde bestehende Software darauf laufen, so aber muss die Software angepasst werden... jeder Forschungspartner, der eine Knights Ferry Karte erhalten hat, musste seine Software anpassen. Aber, falls für die Entwicklung der Software die Entwicklungstools für Xeon-MultiCPU-Systeme verwendet wurden, fällt die Anpassung (wegen der x86 Kompatibilität) - je nach Software - relativ einfach aus.

Und was hat AVX mit MIC zu tun? Die Vektoreinheiten von Sandybridge und Haswell entstammen dem Forschungsprogramm um MIC. Und das ist der Weg, um dem Konsumer eine noch höhere Gflops-Leistung zu verschaffen.

PS: Das "Top-Modell" wird sicher einige Tausend Euro kosten... jedenfalls ist es unwahrscheinlich, dass die Knights Corner Karten weniger als Tesla-Karten kosten.

Und Software wie Anno 2070 müsste, um auf so einer Hardware ordentlich zu laufen, von Grund auf neu entwickelt werden.
 
Zuletzt bearbeitet:
calluna schrieb:
@Felix

Würde der Prozessor in einen Computer als CPU integriert werden, würde bestehende Software darauf laufen, so aber muss die Software angepasst werden... jeder Forschungspartner, der eine Knights Ferry Karte erhalten hat, musste seine Software anpassen. Aber, falls für die Entwicklung der Software die Entwicklungstools für Xeon-MultiCPU-Systeme verwendet wurden, fällt die Anpassung (wegen der x86 Kompatibilität) - je nach Software - relativ einfach aus.

Wird die Karte nicht einfach als zweite CPU erkannt (zumindest unter Windows)?

calluna schrieb:
Und was hat AVX mit MIC zu tun? Die Vektoreinheiten von Sandybridge und Haswell entstammen dem Forschungsprogramm um MIC. Und das ist der Weg, um dem Konsumer eine noch höhere Gflops-Leistung zu verschaffen.

Hmm aber wie können die SB FPUs dem MIC Programm entspringen, wenn es die selben wie bei Nehalem sind? Selbst wenn es so wäre, hätte das immer noch NICHTS mit dem Prinzip von MIC zu tun. Die FPU-Breite wird und wurde immer in einem ähnlichen Rahmen gesteigert, AVX/SSE5 ist schon seit vielen Jahren in Planung. Es ist einfach nur die übliche FPU-Verbreiterung, wie damals von 64 Bit auf 128 Bit. Das hat nichts mit der Idee von GPUs/MIC (massives SIMD) zu tun.

calluna schrieb:
PS: Das "Top-Modell" wird sicher einige Tausend Euro kosten... jedenfalls ist es unwahrscheinlich, dass die Knights Corner Karten weniger als Tesla-Karten kosten.

Und was hat eine Tesla jetzt mit einer Consumerkarte ala GTX 680 zu tun? Natürlich beziehen sich etwaige Preisvorstellungen immer auf die Massenmarktkarten. Die Profikarten kosten bei gleicher Leistung immer ein vielfaches, eben aufgrund der Zusatzservices (Support, Treiber etc) und der Bereitschaft der Firmen, das Geld zu zahlen. Es kauft sich jetzt auch keiner eine Quadro/Tesla für den Gamer-PC, das wird auch für Knights Corner gelten.

calluna schrieb:
Und Software wie Anno 2070 müsste, um auf so einer Hardware ordentlich zu laufen, von Grund auf neu entwickelt werden.

Abgesehen davon, dass Anno von MIC nicht profitiert, da Anno eher starke Integers braucht (was MIC nicht bietet) - warum? Dann musst du mir mal die Defintion von ordentlich geben. Denn eigentlich ist nur ein guter MultiCore Support wichtig. Den bietet Anno mit theoretisch unendlich vielen Threads (in der Praxis bei entsprechenden Siedlungen vielleicht immernoch 10-15 Kerne). Falls es keine Hürden in Windows/der Einbindung der Karte gibt, sollte es zumindest akzeptabel laufen. Immer im Hinterkopf mit dem Gedanken, dass Anno keine 512 Bit FPUs braucht. Ein Cinebench wird wohl Out of the Box krass abgehen, weil er dii Leistungsschwerpunkte von MIC nutzen kann.
 
Felixxz21 schrieb:
Klar, bei angepasster, davon profitierender Software bringt AVX teils recht viel aber das hat doch nichts mit MIC zu tun.

Software muss nicht auf AVX angepasst werden, sondern AVX bei der Entwicklung eingesetzt werden....
Nur ist programmieren mit Inline Assembler(gut muss man nicht zwangsläufig ) einfach nur kacke.
 
Zuletzt bearbeitet:
@Felixxz21: kc fehlen eine vielzahl an befehlssatzerweiterungen, die heutige cpus bieten. zudem werden selbst von modernen programmen meist nur 2 - 3 cpu-kerne effektiv genutzt. der kc würde also vermutlich selbst wenn die software ohne die befehlssatzerweiterungen laufen würde, meist keine vorteile bringen. erst wenn programme beliebig viele kerne unterstützen, könnte kc hier punkten. aber ob das bei spielen und consumersoftware befehlssatzerweiterungen aufwiegen kann, wage ich zu bezweifeln...
 
Zuletzt bearbeitet:
@Felixxz21: Knights Corner ist keine Consumer-Lösung, entsprechend ist der Vergleich mit Consumer-Grafikkarten fehl am Platz. Außerdem sind Fermi-GeForces bei der fp64-Rechenleistung gegenüber den Fermi-Teslas stark beschnitten.
 
Lübke schrieb:
@Felixxz21: kc fehlen eine vielzahl an befehlssatzerweiterungen, die heutige cpus bieten. zudem werden selbst von modernen programmen meist nur 2 - 3 cpu-kerne effektiv genutzt. der kc würde also vermutlich selbst wenn die software ohne die befehlssatzerweiterungen laufen würde, meist keine vorteile bringen. erst wenn programme beliebig viele kerne unterstützen, könnte kc hier punkten. aber ob das bei spielen und consumersoftware befehlssatzerweiterungen aufwiegen kann, wage ich zu bezweifeln...

Ach du als Hobby-Renderer oder zum Filme konvertieren oder oder, es gibt schon paar Programme die viele Kerne nutzen. Klar Befehlssatzerweiterungen sind nicht da, aber die braucht er ja aufgrund der dicken FPUs auch nicht unbedingt.

theorist schrieb:
@Felixxz21: Knights Corner ist keine Consumer-Lösung, entsprechend ist der Vergleich mit Consumer-Grafikkarten fehl am Platz. Außerdem sind Fermi-GeForces bei der fp64-Rechenleistung gegenüber den Fermi-Teslas stark beschnitten.

Ist das irgendwo sicher bestätigt, dass es keine KC Consumerkarten geben wird? Würd mich mal brennend interessieren. Wie gesagt, rein aus Gaudi hätt ich so ein Teil gern :D

Leider interessiert mich FP64 genauso unglaublich wenig wie Wissenschaftler in FP32 interessiert sind. Das meiste was man mit Consumerhardware macht, ist Farben berechnen/darstellen und die sind nunmal auf die Farbtiefe von 32 Bit limitiert.
 
@Felix

Ohne Befehlssatzerweiterung liegt Knights Corner deutlich unter der FP-Leistung eines i7 2600 ... Und das selbst dann wenn man annimmt, dass KC 64 und nicht 50 Kerne hat. ;)

Zum Filme konvertieren ist QuickSync der richtige weg im Konsumerbereich. Das ist beim Ivy Bridge noch einmal überarbeitet worden und schon beim Sandy Bridge ist es deutlich schneller als über eine GPU.

Und wenn für dich nur die Leistung bei FP32 wichtig ist, ist die GPU einer normalen Grafikkarte die bessere Wahl.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben