News Peilt Intel für Xeon Phi die 1,3-GHz-Marke an?

was aber keiner bedenkt das intel noch auf einen ganz andren zug will.

es gibt mitlerweile einen großen markt für gpu rechen arbeiten.

wo zb nvidia tegras als daten fütterer genutzt werden und die grakas dann die arbeit machen.

da die intel karte teils echt gute bereiche hat wo sie mehr richtung cpu geht könnte man damit gewisse bereiche abdecken die jetzt noch von cpu´s abgedeckt werden müssen.

wen die karte das aber zb pro kw 1,2 fach so gut kann
gehn die teile wie geschnitten brot weg.

einfach ne arm cpu als daten futter die wenig strom braucht bei sagen wir 1000cores ca 250 arm chips als daten schaufler und dazu 1-2000 intel karten die die arbeit machen,

was du heut zu tage evtl mit 4000 cpu hättest abdecken müssen die zum teil mit 170 watt spezifiziert sind.

wen die graka mit ihren 300 watt aber die arbeit von 2 cpu´s schaft und für 4 karten oder 8 1 arm cpu als daten aufbereiter dienen kommste unterm strich einige kw günstiger weck.

bzw wäre für so genante rechenkraft bereitsteller ein mix aus intel cpu´s und intel grafikkarten auch intressant wen man alle bereiche abdecken kann.

auch wen die intel karte 10% langsamer ist als nvidia

die meisten kunden die rechenkraft anmieten brauchen cpu leistung da sie ihre sachen nicht immer auf tesla und co optimiert haben.

somit kannste die cpu´s und die karten die ja cpu änliche arbeiten auch können nur langsamer zur not dafür benutzen als leere kapazitäten die sonst rumstehen würden.
 
SaHo81 schrieb:
Ich hoffe sehr, dass Intel es schafft eine ernstzunehmende Kokurrenz für Nvidia und AMD im Highend-Grafikbereich für Gamer zu werden und die künftigen Spiele auch für Intel's GPU von den Spieleentwickler optimiert werden.
Denn dadurch verspreche ich mir endlich mal annehmbare Preise.
Die Preise um 500€ für GTX680 oder HD7970 sind einfach zu hoch oder gar 1000€ für GTX690.

Ja klar, intel als Preisbrecher ;-) das wird garantiert nicht passieren.

Und neben der Hardware gehört auch gute Software, sprich Treiber, dazu... und da hat intel bisher nie wirklich geglänzt.

Man wird den Markt "von unten" aufrollen, mit integrierten GPUs, die sind zwar langsam, deren Leistung wird mit der Zeit aber mehr als genügen... und intel hat ja Zeit.
 
Die Anwender greifen vermehrt zu Mobilen CPU Lösungen, Intel versucht deshalb in anderen Märkten Fuß zu fassen wo sie ihre Produkte zu guten Preisen anbieten können. Nur zu, über kurz oder lang kann es auch für uns Konsumenten interessant werden.
 
flappes was redest du da?

in dem bereich sind oft treiber scheiss egal da die sich selber welche machen auf grundlage der software kidds der hersteller.

und in dem bereich wo der kunde eine genaue linie hat wird auch intel gute treiber haben nur im massen markt lohnt es sich für intel noch nicht geld zu infestieren.

ist bei nvidia auch so die teslaund quadro treiber sind um welten geiler als die für gamer karten.
 
Wird der selbe Rohrkrepierer wie damals Larrabee der gerade mal so die Leistung der vorangeganenen Grakas von AMD und nvidia erreichte ;-)
 
Ich hab für das ganze eine andere Sichtweise.
Xeon Phi hat mehr GDDR5 Speicher als andere Karten , ist leichter zu programmieren und zieht nur 75 Watt.
Sind das nicht bei vergleichbarer Performance viel wichtiger Gründe was die Kaufentscheidung angeht?

Hier erfolgt wohl wieder Abwägung zwischen erwarteten Kosten für Entwickler für Konvertierung und Optimierung der Programme und Beschaffung und Betriebskosten der Karten. Bei einem weit gefächerten Anwendungsgebiet mit vielen komplexen Programmen würde dies eher für Phi sprechen, während man bei wenigen einfachen Programmen dies weniger ins Gewicht fallen soll. Auch fliesst hierbei mit ein, ob die Programme bereits vorhanden sind, da PHI das komplette x86 berherrscht, weshalb man *vermutlich*, nachdem man diverse Libs vor allem das I/O und das Threading angepasst hat, Hochsprachencode wie c und cpp dafür kompilieren kann.
Graphikkarten können die selbe Speichergrössen erzielen. Nvidias nächste Karte soll es afaik auch mit 8GB geben.

in dem bereich sind oft treiber scheiss egal da die sich selber welche machen auf grundlage der software kidds der hersteller.

Wäre mir neu. Denn so ein Treiber zB für OpenCL oder Cuda ist ziemlich aufwendig zu entwickeln; ich vermute so spontan dass bei NVIDIA für die Treiberentwicklung mehrere 10 bis 100 Leute beschäftigt sind. Deshalb lohnt es sich für die meisten "kleineren" Projekte oder Rechenzentren nicht, dafür eigene Treiber zu schreiben; wieso sollten sie auch, wenn bereits ein Treiber mit einer Standardschnittstelle wie OpenCL vorhanden ist.
Die SDKs stellen einem ebenfalls keine tools zum Treiberentwickeln zur Verfügung, sondern lediglich die Treiber und Libs selbst, um die Graka über diese Treiber anzusteuern. Gleichzeitig kommen da noch diverse Anwendungsentwicklungtools oder Anwendungsdiagnose tools mit.

ist bei nvidia auch so die teslaund quadro treiber sind um welten geiler als die für gamer karten.
In weiten Teilen sind sie, alleine schon aus Gründen der Kostenersparnis, aber identisch. Generell bekleckert sich allerdings bislang kein GPU hersteller bei seinen Treibern mit Ruhm; gerade die mitgelieferten Compiler, egal ob für GLSL oder CL sind immer sehr zweitklassig. Als lustigstes mit bekanntes Beispiel sei ein if(true) .... else genannt, was meinen OCL Nvidiacompiler überfordert und zum abstürzen gebracht hat. Dies wird auch noch ein Vorteil von PHI sein: Man kann herkömmliche x86 Compiler nehmen, welche wesentlich ausgereifter sind, als das vorhandene GPGPU Compilergewerch, und muss sie evtl. nur leicht modifizieren.

Wird der selbe Rohrkrepierer wie damals Larrabee der gerade mal so die Leistung der vorangeganenen Grakas von AMD und nvidia erreichte ;-)

Begründe doch dein "Wissen" näher. Wieso wird er das? Denn so wirkt der Kommentar wie eine uninformierte Vermutung, der sich gar nicht mit den näheren Gegebenheiten von PHI auseinandergesetzt hat.
 
Zuletzt bearbeitet:
Bin auch mal gespannt ob sich Intel wieder bis auf die Knochen blamiert, wie letztes mal. Diesmal haben sie ja alle Trümpfe ausgespielt mit 22nm 3D das TSMC noch nicht hat und in dem Gebiet Vorteile. Da muss jetzt auch was kommen...

Einerseits schade das Intel keine Consumer GPUs baut auf der Basis, andererseits würde das AMD definitiv liefern. Die haben ja jetzt schon +-0, mit Intel auf dem Markt würde es wohl in die roten Zahlen gehen.
 
minustaurusrex schrieb:
Wird der selbe Rohrkrepierer wie damals Larrabee der gerade mal so die Leistung der vorangeganenen Grakas von AMD und nvidia erreichte ;-)
Ein Rohrkripierer wird er nie bei gleicher Leistung/Effizienz.
Und Larrabee hatte niemals gleiche Leistung gehabt. Nur unter Laborbedingungen, wo man so AFAIK 400W wegkühlen konnte und das bei noch schlimmeren Yields.

Die Nutzung von der 22nm-Fertigung kann man aus verschiedenen Gesichtspunkten sehen.
Fertigungsbereinigt könnte Intel durchaus in der Architektur (in einigen Anwendungen) ineffizienter sein, was langfrstig grundsätzlich ungünstig. Aber um langfristig in diesem Markt bestehen zu können, ist ein guter Einstieg wichtig und den hat Intel IMO sicher geschafft, wenn Phi wie angekündigt kommt. Eine Einführung zeigt noch keine Tendenz und langfristig können sie bis zum nächsten Architektur-Upgrade genauso teils weiter aufholen bzw. teils weiter davon ziehen.
 
Afaik sind es derer 63 Kerne von denen aber nie alle aktiviert werden. Wohl yield- und/oder TDP-bedingt. Ich frage mich jedoch wie genau Intel, nVidia die show stehlen wollen. Denn viel wichtiger als rohe DP-Zahlen sind immer noch Perf/Watt. Denke nicht dass Xeon Phi, GK110 hier das Wasser reichen kann.
 
@hübie
Ich denke es sind eher 64-Kerne.
Es macht ja auch keinen Sinn, zwanghaft an allen Kernen festzuhalten, wenn man z.B.: mit 62-Kernen das Optimium an Performance-pro-mm² und Performance-pro-mm² erreicht, welches man somit am wirtschaftlichen/profitablesten verkaufen kann. Bei so viele Kerne ist es schon egal, 1 oder 2 Reserve-Kerne zu haben.

Denn viel wichtiger als rohe DP-Zahlen sind immer noch Perf/Watt.
Es ist ja nicht so, als würe Xeon-Phi seine Performance über erhöhten Stromverbrauch bekommen.
Und ein Vergleich über die Performance/Watt von Phi vs GPGPU ist nicht leicht durchzuführen. Denn Performance bzw. Effizienz wird auch nicht durch DP beschrieben. Denn sonst hätte Nvidia bzw. AMD seit GT200 bzw. RV6x0 genauso aufhöhren können ihre Architkturen mittels einer Fähigkeiten-Steigerung weiterzuentwickeln.

Zu guter Letzt bleibt aber die Frage, wie Intel Xeon-Phi am Markt platzieren wird. Denn schließlich sind sie die Platzhirsche im Server-Markt (vorallem 1P & 2P) und würden mit einer agressiven Art (übern Preis) dann sich ins eigene Fleisch schneiden.
Im 4P bzw HPC-Markt sind sie gut vertreten, aber kein Platzhirsch, weshalb eine Xeon-Phi-Priorität im HPC-Markt wahrscheinlicher ist, während man im übrigend Server-Markt die Tendenzen abwartet und sich noch zurückhaltet.

Ich frage mich jedoch wie genau Intel, nVidia die show stehlen wollen.
Eine Show ist im Consumer-Markt nötig, weniger im Profi-Markt, wo Kundenkontakten & Pflege wichtiger sind. Sonst siehe absatz drüber.
 
AMD 7979 Karten schaffen ja bereits 1,3 TFLOPS bei DP und das für um die 500€.

Die K20 von NVIDIA wird so ca 3000€ kosten und wird kaum mehr Leistung bringen. Ich selber bin sehr enttäuscht das die GTX 680 eine geringere DP Leistung besitzt als die GTX 570 oder GTX 580. Ich hätte gehofft das die DP Leistung bei der GTX 680 doppelt so hoch ist wie bei der GTX 580.

Ich weiß nicht was NVIDIA da gemacht hat. Leider ist SP oft nicht ausreichend genau.
 
AMD 7979 Karten schaffen ja bereits 1,3 TFLOPS bei DP
Quelle ?

Ich weiß nicht was NVIDIA da gemacht hat.

Optimiert auf SP Performance? 580 hat 3 G Transistoren; 680 3.5 G. Irgendwoher muss ja die deutliche Mehrleistung in SP bei nahezu gleicher Transistorzahl und etwas kleinerer Strukturgrösse herkommen. Nvidia hat diese Karte auch eher als Consumer Karte geplant und sich die SP Performance in diesem Fall unter anderem durch die DP Performance erkauft, denn diese niedrigere DP Performance für die meisten Consumer nicht störend. Denn fast ausschliesslich wird SP, wegen dessen ausreichender Genauigkeit, bei Standardanwendungen wie Spielen, Physik, Raytracing, Graphikbearbeitung, oder encodieren verwendet.

Weshalb enttäuscht dich das denn überhaupt? Hast du eine Anwendung welche viel DP verwendet, so dass die 680er darin deutlich zurückfallen?
 
@pimbolie1979

AMD gibt 947 Gflops an, für die Standard 7970. Und das ist der Peak-Wert. Bei Xeon Phi soll (angeblich) der Wert von 1 TF (bei einer früheren Vorführung) aber kein Peak-Wert sein. Aber wie Nai schon schrieb, die möglichen Nutzer der Karte müssen selbst schauen, wie ihre Anwendung damit läuft. Nicht umsonst wurden Testmuster bereits letztes Jahr schon verschickt.
 
Letzlich auch compiler-Sache. Ich denke dass Xeon Phi in Laboren kaum Fuß fassen wird da deren Anwendungen schon sehr auf CUDA oder OpenCL optimiert sind. Intel wird dennoch seinen Platz in anderen Bereich finden weil es einige Vorteile bzgl. Integration gibt. Jedoch muss man auch mal hinter die Kulissen sehen um festzustellen dass es eine neue Erweiterung gibt welche nicht SSE, MMX oder AVX sondern IMCI heisst. Auch dafür muss man halt wieder Anpassungen vornehmen. Weiterhin gilt zu bedenken dass aktuell nur eine PCI-E 2.0 Anbindung vorliegt. Das schränkt also auch wieder das Anwendungsgebiet ein. Besser wäre eine direkte Anbindung.
Dennoch bin ich sehr gespannt auf Intels auftritt. Immerhin wird Xeon Phi einen guten Einstand in dieses Segment abgeben.
@calluna: Du musst ja auch irgendwie die Kerne auslasten. Daher wohl ungenaue Angaben. Die 1 TFlop/s sind aber schon peak - marketing braucht Zahlen. :D

Edit: Hier stehts sogar. Allerdings weiß man nicht ob eben im Vollausbau oder kastriert.
 
Zuletzt bearbeitet:
Nai schrieb:
Die Zielgruppen der Karte, wie Firmen oder Forschungseinrichtungen, sind keine naiven Kunden. Diese werden sich mehrere Testexemplare kaufen, darauf selbst programmierte Benchmarks laufen lassen, welche sehr nahe an ihrem geplanten Anwendungsgebiet sind, und sich erst danach entscheiden mit welchen paar Hundert bis Tausend Karten sie ihr Rechenzentrum ausstatten.

Ich kann dir sagen, das in "meiner" Firma auch schon seit Jahrzehnten Supercomputer benutzt werden und zeitweise auch der schnellste SuperComputer war.

Nun stehen neue Supercomputer an. (Mehrere Standorte)
Auch wenn ich es nur am Rande mitbekomme ist die Methode wie über die Anschaffung entschieden wird, ist es schon sehr mit Consumer Entscheidungen zu vergleichen.
Insbesondere wenn da Leute mitmischen die behaupten "AMD CPUs sind inkompatibel"
Ich hoffe allerdings, dass es woanders anders läuft... :freak:

Allerdings ist GPGPU noch nicht Thema das neuen Supercomputers.
 
Zurück
Oben