News Intel: Eigene diskrete Grafikchips kommen

Was ist denn ein diskreter Grafikchip? Ein unauffälliger, der kaum Leistung bietet? :D
 
langfristig macht das natürlich sinn, wer aufmerksam die derzeitigen entwicklungen verfolgt, der weiss, dass in den nächsten jahren die klassische gpu (single chip) ausgedient hat (verbrauch, herstellungskosten etc.). zudem hat intel natürlich die fertigungstechnologie und wer bitte schön glaubt denn, dass intel nicht in der lage ist in einem langfristigen projekt die entsprechenden leute einzukaufen, die dann auch high-end-chips für grafik-algorithmen zur marktreife bringen? das wäre naiv...
und wer genau hinsieht, der hat schon mitbekommen, dass echtzeitrendering in der pipeline steht und das ist die ideale anwendung für multi-gpu-systeme. in 10 jahren werden vermutlich ALLE spiele in echtzeit gerendert und sonst nix mehr. parallelisierung ist also trumpf :-)
 
Ich frage mich dabei auch eher, wieso Intel in den Grafikkartenmarkt vorstoßen will. Die Gewinne bei Nvidia und AMT/ATI kommen ja schließlich duirch die Mainstream und Lowend-Grafikkarten ein, der Hig-End Bereich ist nicht der Gewinneinbringer und Intel will aber doch im High-End Bereich einsteigen und seh ich das falsch?
 
Ich finde die Meldung ganz Interessant. Ich frage mich, wie das Ganze (CPU und GPU in einem) im High-End Segment aussehen soll. Der Vorteil, den ich darin sehe, ist dass keine Zusatzkarte mehr braucht, sondern alles auf dem "Mainboard" vorhanden ist.

mFg tAk
 
ich dachte zuerst, dass es nur ein Scherz ist, da es aber tAk scheinbar auch nicht verstanden hat.

@41) Greyson
@44) tAk

http://de.wikipedia.org/wiki/Diskretes_Bauteil

"diskrete Grafikchips" heißt nichts anderes, als das was Nvidia und Ati schon die ganze Zeit produziert. Also nichts mit CPU und GPU in einem Stück für High-End Segment.

Die Integration wird im Low-End-Markt geschehen. Noch mal genau lesen @ tAk
 
Zuletzt bearbeitet:
Es gab leider viele unterschiedliche News resp. Gerüchte zu dem Thema. Zum jetzigen Zeitpunkt scheint mir ein solches Unterfange eher als unrealistisch, aber in Zukunft könnte ich mir vorstellen, dass zumindest erstmal im Low-End Bereich solche Lösungen angeboten werden.

Ob nun direkt integriert oder nicht ist im Endeffekt egal. ;)

mFg tAk
 
Intel ist ja sowieso der mit sehr großen Abstand größte Grafikchiphersteller :)
 
Das klinkt durchaus nach einer interessanten Entwicklung, mal sehen was dabei rauskommt und Erfahrungen hat Intel mit Grafikchips schon einiges jetzt müssen sie diese nur stärker machen.
 
Feine Sache, eines Tages passt der komplette PC ohne Abstriche wieder in die Tastatur, dann nennen wir das ganze Amiga, und tun so als ob in der Zwischenzeit nichts gewesen wäre! :)
 
toll, und wenn ich die GK leistung aufrüsten will, muss ich auch den CPU bezahlen und kaufen, denn schleißlich ist das ja alles on Die :-/

Und wie siehts aus wenn ich nur den CPU aufrüsten will, und nich die Grafik ?

und wie siehts aus wenn ich nicht 3 GHz haben will mit der Grafik sondern 4 GHz ?

Fragen über fragen
 
@XP_home:

Mal ehrlich: Kannst du lesen?

Ich habe geschrieben, dass es falsch war und wie es richtig geschrieben wird!
von dir: "dann solltest du wenigstens hinschreiben wie man es machen sollte!"
von mir: "Übrigends wird der Plural einer Abkürzung nicht mit einem "s" versehen - es heißt also eine 'Central Processing Unit' (CPU) oder zwei 'Central Processing Units' (CPU)."

Und wo ist das Problem korrekt zu schreiben?
Und Graka ist ebenfalls eine Abkürzung - die eigentlich korrekt ist. Grafikkarte. Stimmt doch!
Und ich sehe kein Problem zu sagen: "Ich hab einen Prozessor mit zwei CPU!"
 
@RubyRhod

Ich habe einen Prozessor mit zwei CPU`? tz tz tz, sagt doch kein mensch! man sagt ich hab nen Dual, oder nen Quad, oder man sagt zu 99% jedenfalls den Namen, so verstehts wenigstens jeder

Was habt ihr alle mit eurem Apple (Mac) und PC, der Mac ist ja auch nur ein PC, kurz schnell Windows drauftun, und man hat das selbe..........
 
@S´p@tcher:
"Ich habe einen Prozessor mit zwei CPU`? tz tz tz, sagt doch kein mensch!"

Wie schön, dass du verstanden hast, dass es mir nur um's Prinzip ging! NICHT!

Und wenn ich hier nun nicht einen direkten Link zum Duden, Wikipedia oder eine angesehene, vllt. wissenschafl. Seite bekomme, auf dessen Seite der Beweis steht, dass ich Unrecht habe, wünsche ich auch keine weitere Kritik. Abk. haben keinen Plural.
Back to topic please!
 
@s´patcher
was ist denn ein prozessor mit 2 central processing units? :lol:


@topic
nett gestecktes ziel
aber so einfachist das nicht
der G80 hat 4 jahre gebraucht
intel hat zwar gut teams eingekauft, aber diese haben auch nicht die erfahrung auf genau diesem gebiet die ingenieure bei nvidia oder ati haben

aber konkurrenz ist immer gut
nur wenn die zu erfolgreich werden bekomm ich angst vor nen neuen chipriesen
 
@bensen

hättest du genau gelesen, hättest du gemerkt, das diese aussagen von RubyRhod kam
 
@Accuface
toll, und wenn ich die GK leistung aufrüsten will, muss ich auch den CPU bezahlen und kaufen, denn schleißlich ist das ja alles on Die :

Genau das Problem hab ich auch. Jedesmal wenn ich für ein FPU-lastiges Spiel eine schnellere floating-point-unit haben will, muss ich den ganzen Prozessor upgraden.
War das früher zu 486SX-Zeiten noch herrlich, wo die FPU noch getrennt zu haben war...

Und erst der Cache. Zu 386/486 konnte ich mal schnell den 2nd-Level-Cache verdoppeln in dem ich in das Mainboard noch ein paar SRAMs reingesteckt habe. Und jetzt: wegen so einer Kleinigkeit CPU neu kaufen.

Und bei AMD der integrierte Memory-Controller. Was hilft es mir, wenn die CPUs da um 20% schneller werden. Bei neuem RAM brauch ich jetzt auch eine neue CPU.

So jetzt langts. ich glaube es ist klar worauf ich hinaus will. ;)
 
Tja was AMDATI und nieVidia nicht hinbekommen(der R600 wird ja auch kein Mehrkern sein) macht Intel dann halt . Wenn die chips so gut sich wie die Core2 Modelle *kann* das nen Richtig dicker Einschlag werden...(ich mag Intel nicht aber das würde ich denen gönnen -> für neue Technologie sind sie zumindest bereit -> ich glaube Intel hat was gelernt in den Jahren -> villeicht wird mein nächste CPU ja mal wieder nen Intel (nach meinem P3 700Mhz Slot A) , wer weis vileicht sogar ne neue Graka von Intel(solange die *BITTE* nicht nieVidia kaufen)...

cu
 
Laut div. Gerüchten soll aber der R700 schon aus mehreren Kernen bestehen. Und auch nVidia arbeitet an einer CPU, resp. GPU/CPU.

Das nur einer dieser Hersteller eine solche Sache auf den Markt bringt, halte ich für unlogisch. Dank der Konkurrenz sind die Unternehmen gezwungen weiter zu forschen und entwickeln und das ist auch gut so.

mFg tAk
 
RubyRhod schrieb:
Übrigends wird der Plural einer Abkürzung nicht mit einem "s" versehen - es heißt also eine 'Central Processing Unit' (CPU) oder zwei 'Central Processing Units' (CPU).

Sprachwissenschaftler?
Wie lautet die Mehrzahl von CD? -> CDs
... die Mehrzahl von AG? -> AGs

Es gibt keine eindeutige Regelung für die Pluralbildung - auch aufgrund der unterschiedlichen sprachlichen Herkunft. Deine Aussage ist aber definitiv falsch (egal nach welcher deutschen Rechtschreibung).

Im Übrigen werden die Pluralformen nicht immer mit einem s gebildet: So schreibt man die Mehrzahl von Rechtsanwälten (RA) so: RAe, die Mehrzahl einer Stunde (Std) ist dann Stdn, zu Händen kürzt man z. Hdn ab.

Es gibt aber Abkürzungen, die kein Plural-s bekommen, da die Abkürzung bereits den Plural bezeichnet: AGBs ist falsch, da AGB für Allgemeine Geschäftsbedingungen (also Plural) steht.

Es gilt aber eine allgemeine Regel: Die Sprache soll nach Möglichkeit eindeutig sein. Will ich also eindeutig sagen, dass ich mehrere Prozessoren meine, ist CPUs richtig (nur nicht mit ´, denn das ist dann wieder falsch).
 
Hmmm. Komisch.

Es wäre doch viel logischer wenn sich nVidia mit Intel zusammen tun würde. Intel hätte weniger Arbeit und weniger Risiko, dass es floppt. Und nVidia hätte modernere Technologie in Sachen "Fertigung".

Aber da ist Intel wahrscheinlich zu arrogant. Immerhin müssten sie sich dann eventuell etwas von einem deutlich kleineren Mitbewerber (ja, auch im Grafikchip-Markt ist Intel insgesamt führend, zumindest vor nVidia) sagen lassen.

Ich will endlich Grafikchips mit kleineren Strukturen haben. Aber ich will keine ATi mehr, weil ich wegen deren miesen Linux-Treibern jetzt die Schnauze endgültig voll habe. Wobei die ja auch unter Windows nicht an die Treiber von NV ran kommen. Naja.
 
Zurück
Oben