News Intel ab 2008 mit diskreten Grafik-Chips

Ja auf die Treiber von Intel bin ich wirklich gespannt. Nach allem was ich weiß, sollen ja die Treiber ihrer bisherigen integrierten Grafikchips nicht so der Hit sein. So soll z.B. der im letzten Jahr eingeführte X3000 bis heute nicht sein volles Potential ausschöpfen, weil Intel es nicht mit den Treibern gebacken kriegt. Letzten Informationen zufolge plant man gar, die Treiber nicht weiter zu verbessern, damit man den Absatz der nachfolgenden Chips verbessert.
 
Hm, ob das wirklich so positiv ist, wenn Intel auch noch ein Stück vom Kuchen abbekommt?
Gut, Konkurrenz belebt das Geschäft, aber je mehr Hersteller sich einen Markt teilen, desto schneller ist auch einer mal raus. Ich denke, Intel zielt mit dieser Entwicklung Richtung AMD, die eh schon unter großem finanziellen Druck stehen.
Und Intel verkauft so viele (integrierte) GPU´s, die müssten nun wirklich nicht auch noch in die Domäne von NV und AMD verstoßen. Ich bin jedenfalls gespannt, ob Intel eine ordentlich GPU hinbekommt. Das Know How und die nötigen Mittel haben sie ja...
Vielleicht reichts dann auch mal für etwas potentere Onboard-Lösungen und Treiber;)
 
@ Cleaner57

Das ist nicht dein ernst oder?
Du beschwerst dich bei CB, weil du ein Wort nicht kennst? ( welches übrigens in dem Zusammenhang fast immer gebraucht wird )
Du solltest dem Autor lieber danken, dass du wieder etwas dazu lernen konntest.

Es ist doch sehr zu begrüßen, dass versucht wird das Niveau der News hoch zu halten und nicht alles auf Bild-Niveau runterzubrechen.

@ News

Ich denke es wird stark auf die Treiber ankommen, wie gut sich der Chip im Endeffekt schlägt.
Ein weiterer, ernsthafter Mitbewerber auf dem Grafikkartenmarkt ist sicherlich nichts schlechtes.
 
Die mangelhaften Deutschkenntnisse einiger Leser hier sprechen ja echt Bände. PISA lässt grüßen.
 
Intel ist wirklich an allen Fronten aktiv. Bin mal gespannt, was das Teil dann letztendlich kann. Genug Erfahrung im Grafikkartenbereich bringen sie ja mit. Ich könnte mir sogar gut vorstellen, dass die Karte sehr stromeffizient arbeitet, weil Intel auf sein Know how aus integrierten Chipsätzen zurückgreifen kann.

Weiter so!
 
Naja, wenn die Karte wirklich mit 2 Stromanschlüssen erscheint, dann ist es mit der Effizienz wohl soweit nicht her.
Aber lassen wir uns mal überraschen.

Ein weiterer entscheidender Faktor dürfte auch die Interoperabilität mit Chipsätzen anderer Hersteller sein. Damals, als AGP neu war, gab es ja auch diskrete Intelchips und was war? Auf Boards mit Chipsätzen von Drittherstellern liefen die Dinger nicht richtig. Ok, auch das war wohl mehr eine Treibersache, als sonstwas. Aber bloß weil intel evtl. eine gute Graka baut, werde ich mir sicherlich nicht alles aus Intels Hand kaufen. Damit kann man die Konkurrenz dann auch sehr stark schwächen.
 
silentcooper schrieb:
Wenn ich mir die Abbildung so anschaue mit den zwei Stromanschlüsse, wird die Intel-Garafikkarte alles andere als stromsparend sein.
Das stand letztens in den News:
Das Ganze verbraucht bei einem Takt von 2 GHz ca. 150 Watt und bietet eine Leistung von einem Teraflop. Der Grafikchip ist somit nicht nur sparsamer als ATis R600 (Radeon HD 2900 XT, bis 215 Watt), sondern bietet dabei auch noch die doppelte Performance.

Natürlich ist das immer noch sehr viel, aber warten wir es mal ab, was ATi und nVidia nächstes Jahr noch so rausbringen. Hoffen wir mal, dass sie dem Aufwärtstrend in der Leistungsaufnahme endlich etwas entgegensetzen können. Ansonsten hat Intel wirklich eine Marktlücke gefunden um dort ihre vielleicht nicht ganz so guten Karten abzusetzen.
 
Ich befürchte das auf kurz oder lang AMD mit den ATI Karten raus ist, falls Intel mit seinen "eigenständigen" Grafikchips Erfolg hat. Wie war das denn damals mit den hochgelobten Voodoo 5000er Chips?! Wie das geendet ist wissen wir alle, das FX Debakel der GF 5800 kam dabei am Ende raus. Wünsche tue ich es AMD auf keinen Fall, aber so wie es im Moment mit der Intel und nVidia Zusammenarbeit ausschaut wird AMD da sehr schwer zu kämpfen haben.

P.S: Ich hoffe das AMD besser da steht als Voodoo damals, und ihnen nicht das selbe Schicksal droht. Das sage ich auch obwohl ich noch keine ATI Karte hatte und mir eigentlich auch vorgenommen hatte keine zu kaufen, aber man wird ja älter und dann zählen irgentwann die inneren Werte mehr, in meinem Fall der Stromverbrauch, und da würde ich am Ende auch zu einer Intel Grafikkarte greifen, wenn sie mir mit maximal 50 Watt eine sehr gute Performance liefert.
 
Ich finde das Wort "diskret" wird von CB einfach missbraucht um schlau rüberzukommen. Wenn die CB-Autoren das Wort verstehen würden, dann würde eine Definition für "diskret" im Text stehen. Toll, dass ich die Bedeutung nachschlagen musste, um den Text zu verstehen.
sry, aber lol
l2pisa :P
 
Sehr gut, wenn ein Dritter ins Spitzenfeld vorstößt.
Hofffentlich ist das dann nicht das Ende von AMD/ATI, schaut nämlich ganz danach aus.

Immerhin dümpelt AMD seit Jahren in den Roten Zahlen herum...
Wenn jetzt auch noch der Ex-ATI Sektor überrollt wird,...oje, oje, oje...
 
Mal schauen, wo sich Intel dann positioniert. Diese GPU sind doch eigentlich eher als GPGPU gedacht oder verfolgen zumindest diesen ersten Ansatz. Das kann dann bedeuten, das man sich dort erst auf die professionellen Anwender konzentriert und später erst zu den Endverbrauchern kommt.

Crazy-Chief schrieb:
... "eigenständigen" ...

Das Wort eigenständig trifft wohl kaum den Sinn. Ich finde es traurig, wie plötzlich Leute aufgrund ihrer mangelnden Bildung anfangen den allgemeinen Sprachgebrauch schlecht zu machen.
Sind euch auch Begriffe wie GPU oder CPU zu kompliziert?
 
Hmm hab die vermutung das da mehr zu erwarten is.
Hat es von Intel nicht mal Stellenauschreibungen für Raytracing Entwickler gegeben ?
btw hier mal noch n interessanten Zitat aus ne CB Artikel über das Thema :

"Mit einem mit 90 MHz getakteten Prototypen konnte in etwa die Geschwindigkeit eines virtuellen Pentium 4 mit 10 GHz erreicht werden. Eine für den Massenmarkt angefertigte Karte könnte höher getaktet werden, mehrere Raytracing-Cores in einer GPU enthalten, mehrere GPUs auf einer Karte besitzen und man könnte mehrere dieser Karten in einen Rechner einbauen. Schon ist man sehr schnell bei flotten Frameraten in hohen Auflösungen."

Hört sich doch interressant an oder?
Außerdem soll das Raytracing ja wie geschaffen für Multicore Systeme sein da es ja sehr einfach skalierbar sein soll.
Ma kucken
cu
 
@30 Die schreiben doch nicht seit Jahren nur rote Zahlen.

Wer weiß, was das für Karten sein werden. Aber die Rohleistung sagt erstmal gar nichts aus. Ob dann die Treiber was taugen, wäre die nächste Frage.
 
Zuletzt bearbeitet:
Das Problem ist , das sollte es Intel gelingen sofort in den vorderen Leistungsbereich vorzudringen, wird es für beide Hersteller sowohl nvidia als auch ATi schwierig, da Intel mit seinen eigenen Fertigungsmöglichkeiten und dem Kapitalstock, das Entwicklungstempo nochmal beschleunigen könnte, auf ein Niveau dem Ati und vor allem Nvidia nicht folgen kann.

Nvidia wird in absehbarer Zukunft vielleicht sogar größere Schwierigkeiten als ATi bekommen, da das Umsatzträchtige O'E'M' Geschäft in den nächsten Jahren größtenteils auf in die CPU integrierte GPU's wechseln wird, sprich Nvidia gerät in Zugzwang ebenfalls in den Prozessorenmarkt einzusteigen und da haben sie, abgesehen vom Mangel an eigenen Fertigungsanlagen, noch das Problem des Fehlenden Know-How bei Fertigungstechicken, denn das stellen bisher immer Auftragsfertiger wie TSMC zur verfügung.

ATi kann zusammen AMD genau den Teil des Marktes bedienen zu dem Nvidia in den nächsten Jahren wohl nicht in der Lage sein wird. Nur mit High-End bis Mainstream Lösungen läßt es sich aber schwer überleben.
 
Intel wills wissen scheinbar, hoffe die übernehmen sich nicht an so vielen Fronten ;)
 
btw. ... Intel ist schon seit Jahren Marktführer bei Grafikchips ;)
 
Ich wage mal die Prognose, dass man aufgrund der MÖGLICHEN Implementierung von CSI weitere Prozessoren/Beschleuniger auf dem PCB installieren KÖNNTE.

Ein solches Konzept wäre nicht nur das Ende von PhysX, sondern auch ne klasse Möglichkeit die Grafikleistung durch einfaches Upgrade zu steigern, statt gleich die ganze Grafikkarte zu ersetzen oder ne zweite dazuzukaufen.
 
Sollte die karte wirklich an die Leistung der nächsten NVidia Generation rankommen kann ich mir nicht vorstellen dass man wirklich bei 300 euro bleibt. Wenn doch wär das genial weil dann müssten NV und AMD ja auch billiger werden.
 
Genau. Die hätten dann aber wieder um einiges weniger Geld für Forschung und Entwicklung über -> einer der drei würde aus den Latschen kippen. Klar belebt Konkurrenz das Geschäft, aber immer billiger und billiger ist auch nicht schlau. Auf der einen Seite wird gemeckert wenn Arbeitsplätze abgebaut werden, auf der anderen Seite soll man alles gleich geschenkt bekommen. Menschen komisch sind.
 
An alle die glauben dass man anhand der 2 Stromanschlüsse die Leistung schätzen kann:

Das hier ist bloß ein Entwurf für den ersten Prototyp des Chips.

Der endgültige Chip könnte noch zusätzliche Prozessor dazukommen oder es könnte welche wegfallen (ATI und nVidia haben auch öfters Shder erweitert oder wegfallen lassen)
Der Chip wird bis zur Serienfertigung vermutlich noch geschrinkt (für alle die das Wort nicht kennen engl. shrink verkleinern), da Intel bis dahin die Fertigungsstätten sicher umgerüstet hat und dadurch wird sich der Stromverbrauch sicher auch noch ändern.

Also vergesst alles was ihr momentan über den Stromverbrauch der Karte zu wissen glaubt.

Nichtmal Intel selbst weiß wiviel die engültige Karte verbrauchen wird.

Tschüss
 
Zurück
Oben