News QuickAssist: Beschleuniger für Sockel und PCIe

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
die teile werden denke ich recht teuer und sind somit wirklich nur was für Server (daher auch erstmal nur für den Server sockel).

aufjedenfall keine schlechte idee von Intel, bin gespannt, was daraus wird.
 
hm, kann mir mal jemand erklären, wofür die teile genau dienlich sein werden und bei welchen anwendungen die sinnvoll sind? handelt es sich um etwas ähnliches wie die co-prozessoren 8087 oder wie die damals hießen?
 
is ja auch für server-systeme gedacht...
 
nun klar bringen beschleuniger was in spielen - eine gpu ist doch nix anderes (ein spezieller dsp).

und schön dass es da jetzt eine feste softwareschnittstelle geben wird.

irgendwie kommt es mir vor als ob xilinx gerade einen fetten aufschwung erlebe - ok die verkaufen schon recht lange dsps aber jetzt hört man doch recht oft von denen.

erst der sparta3 auf der crossfire masterkarten und auch in dieser news ist fast auf jeder beschleunigerkarte ein chip von denen ...

leider kann ich das leistungsmäßig nicht einschätzen - somit wären benchmarks sehr nützlich^^

-gb-
 
mich beschleicht das Gefühl, dass dieser Artikel nicht zur sonst hier anzutreffenden Leserschaft passt.

Vielleicht sollte man im Artikel für weniger technikbewandte Leser klarstellen um was es eigentlich genau geht.
 
Ja das könnte man sagen. Wobei der 8087 ja nichts anderes als ne FPU war die mit den 486ern dann in die FPU integriert wurden und seit dem Pentium zur Standardausstattung der CPUs gehören.
In der Vergangenheit hieß es ja häufiger, dass derartige Coprozessoren zur Entlastung der CPU bei Datenbankanwendungen oder ähnlichem eingesetzt werden können sollen. Das besondere an diesem Chip allerdings ist, dass es ein Rohling ist. Soweit die Meldung korrekt ist, ist die Logik des FPGA frei programmierbar. Man kann also mit Hardwareentwurfssprachen wie VHDL ein logisches Chipsdesign entwerfen und den Chip anschließend entsprechend programmieren. Es entscheidet sich dann anhand der Programmierung, was daraus wird - ein Datenbankbeschleuniger, ne Kryptooffloadengine, ne verkappte Grafikkarte (also Vektorprozessoren) oder was auch immer.
 
@8: richtig! soweit ich aber verstanden habe (viel text, wenig konkretes) geht es um die anbindung solcher bausteine, welche vorerst FPGAs sind...
 
Als PCIe Karte werden solche Beschleuniger definitiv mehr Bestand haben, als als Sockelmodul.
Als PCIe Karte werden Beschleuniger sogar in Privatrechnern eingesetzt werden können.
 
@ycon

lol, was willst du denn in Privatrechnern mit den dingern? Da kann der Verbraucher nix mit anfangen...

gruß

cumec
 
Ist die Anbindung per FPGA wirklich so vorteilhaft, was Geschwindigkeit und Leistung angeht?!?!?

Oder will man hier einfach nur die Zeit überbrücken, bis CoProzessoren in der eigentlichen CPU untergebracht werden können - z.B. ein Quad-Core mit 2 ALUs, 1 Vektor-Grafikeinheit, 1 programmierbarer mathematischer CoProzessor.

Kommt mir so vor, wie eine PCI-Karte mit SATA2-Anschlüssen...
 
Das kurzfristige Ziel dieser Technologie scheint wohl darin zu liegen, dass eine feste API etabliert wird, nach der man zb Physiksimulationen oder Proteinfaltungen berechnen kann (sprich alles was man hochgradig parallelisieren kann). Wenn sich diese API dann mal bei einer gewissen Menge wissenschaftlicher Anwendungen durchgesetzt hat wirds wohl in eine "XEON-artige CPU" reinkommen.
Interessant ist, dass NVIDIA im Grafikkartenbereich mit CUDA genau das gleiche versucht. Es wird also spannend zu sehen, wer das Rennen macht.
Ich tippe darauf, dass sich selbst im Serverbereich NVIDIA Karten durchsetzen könnten, weil die Fertigung deutlich günstiger sein sollte und im Spielemarkt die Grafikkarten jährlich ihre Leistung mehr als verdoppeln ;) Wie's im FPGA Bereich mit den Performance-Schüben aussieht weiß ich leider nicht, vielleicht könnt ihr da noch was dazu sagen.
 
@ 11:
Was man damit will, ist ne andere Frage (und da gibt es sehr wohl Anwendungszwecke, fast soviel wie das sprichwörtliche Sand am Meer... fast).
Vom Prinzip her hab ich gemeint.
 
Das nenn ich mal ein Gehäuse... Da passen Full-Size ATi Grakas bestimmt rein...
Ich denke, dass wir auf eine weitere Entwicklung dieser Sparte gespannt sein dürften, da sich hier doch nicht nur die Leistung im Bereich von FlOp/s erhöhen lassen wird...
 
Hey,

die Karte von ClearSpeed sieht nach nem PCIe Interface aus, nett :)

Mal gespannt wann der Nachfolger des jetzigen ClearSpeed Chips herauskommt und ob er dann mindestens die doppelte Geschwindigkeit bei gleichbleibenden niedrigen Energiebedarf, schafft! :D

MfG
CYA

iNsuRRecTiON
 
Was für ein gehäuse ist denn das? Ist ja riesig oO
 
Dürfte ein normales 19"-Gehäuse sein...
 
dualcore_nooby schrieb:
Das kurzfristige Ziel dieser Technologie scheint wohl darin zu liegen, dass eine feste API etabliert wird, nach der man zb Physiksimulationen oder Proteinfaltungen berechnen kann (sprich alles was man hochgradig parallelisieren kann). Wenn sich diese API dann mal bei einer gewissen Menge wissenschaftlicher Anwendungen durchgesetzt hat wirds wohl in eine "XEON-artige CPU" reinkommen.
Interessant ist, dass NVIDIA im Grafikkartenbereich mit CUDA genau das gleiche versucht. Es wird also spannend zu sehen, wer das Rennen macht.
Ich tippe darauf, dass sich selbst im Serverbereich NVIDIA Karten durchsetzen könnten, weil die Fertigung deutlich günstiger sein sollte und im Spielemarkt die Grafikkarten jährlich ihre Leistung mehr als verdoppeln ;) Wie's im FPGA Bereich mit den Performance-Schüben aussieht weiß ich leider nicht, vielleicht könnt ihr da noch was dazu sagen.

Diese Beschleuniger sind etwas völlig anderes. Es wird keine zusätzliche CPU untergebracht, es soll auch keine untergebracht werden, Ziel ist lediglich, die Effizienz in bestimmten rechenintensiven Anwendungsbereichen zu steigern.
Afaik ist das Ziel von nVidias CUDA stattdessen, die GPU C-Code ausführen zu lassen, sie also quasi als co-prozessor arbeiten zu lassen. Das ist ein anderer Ansatz und ich bezweifle, dass nVidia damit im HPC-Markt in Sachen Effizienz mit Beschleunigerkarten wie denen der Advance-Reihe mithalten wird, laut Hersteller kann eine Karte mit einer TDP von 25W die Leistung einer Workstation um 50 GFLOPS steigern. Deren Anwendungsbereich ist allerdings limiterit. Ein Vorteil von CUDA ist damentsprechend das potentiell größere Aufgabenspektrum.
 
@beeblebroxx:
eine 8800gtx hat ein theoretisches maximum von 518GFLOPS, das ist aber eher theoretischer Natur.
Effektiv bleiben nur ca. 200 übrig, je nachdem wie effizient der Programmierer das ausnutzen kann.
Ziel von CUDA ist nicht, wie von dir angenommen, einen co-processor zu haben, sondern einen speziellen voll programmierbaren streamprozessor, den man für beliebige fließkommalastige sachen nutzen kann. da er immer noch schwer effizient zu nutzen ist, wird es sich nur lohnen, software auf cuda anzupassen, wenn dadurch effektiv zeit und strom eingespart wird, und ob das der fall ist, wird die zukunft zeigen.
wenn man sich aber die papers bei www.gpgpu.org durchliest, sieht man schnell, dass allein mit den "CUDA-Vorgängern" bzw früheren Ansätzen teilweise die Performance weit mehr als verzehnfacht hat.
Wenn ein Problem schlecht parallelisierbar ist, dann läufts sogar langsamer, aber in einem solchen fall hilft eben auch kein FPGA.
 
Zurück
Oben