News Clarkdale ohne VGA, aber mit HDMI & DisplayPort

Gerade in Laptops hat das noch Sinn. Schon mal ne Präsentation mit dem Laptop gemacht? Da sind mir bisher nur Beamer mit D-Sub untergekommen. Ich hab zwar ein Laptop mit DVI Ausgang, aber zu solchen Anlässen immer ein Adapter dabei.
 
Soll heißen das die zukünftigen Mainboards von Intel alle einen Monitorausgang haben? Denn wenn letztlich die CPU entscheidet, ob man eine Grafikkarte braucht oder nicht, sollte dann nicht jedes Mainboard in der Lage eine CPU + GPU zu unterstützen. Sicherlich brauchen High-Ends Board diese Option nicht zwingend, aber beim Mid- und Low-End Markt macht dies doch sicher Sinn? Wenn ich mir dann ein Pxx irgendwas Board von Intel kaufe und mir diese CPU + GPU kaufen und das Board kein Monitorausgang hat, bringt mir das doch nichts?
 
Naja, ich bezweifel irgendwie das der VGA Anschluss wegfällt. Immerhin hat selbst das validierungs Board von Intel nen VGA Anschluss....

06.jpg


Zudem hat man doch schon nen paar 1156er Boards gesehen die ebenfalls nen VGA Anschluss haben.
 
Wenn es wirklich G45 in 45nm sein wird, dann können die sich den direkt schenken^^
 
VGA ist nach meiner Sicht shcon tot und mal sollte schon mindestens dvi haben heut zutage.
 
Chrisch schrieb:
Westmere ist keine neue Architektur (siehe Tick Tock Modell).

G45 + Core2Duo --> H55 + Core i5 (Clarkdale)

Also wenn das mal kein Architekturwechsel ist! Da wurde, wie mittlerweile bereits
jedem bekannt sein dürfte, sogar ein Schritt übersprungen.
Deswegen, bitte keine solchen unfundierten Aussagen mehr abgeben.
 
Westmere ist trotzdem keine neue Architektur, es ist nen Nehalem Shrink (egal ob Dual oder QuadCore).

Btw gibt es sogar Nehalem DualCores (nur eben ohne IGP)!

Ne neue Architektur wird Sandy Bridge, deswegen solltest du dich lieber mit deinen "unfundierten" Aussagen zurückhalten.
 
RubyRhod schrieb:
Der erste Dualcore von Intel war auch kein nativer.
Soweit ich mich erinnere, waren die Pentium D 800 monolithisch... Im Gegensatz zu den Pentium D 900.

Interessant ist auch, dass das GPU-Die so groß ist... Bei der Leistungsfähigkeit darf man doch mit deutlich weniger rechnen, gerade im Vergleich mit den aktuellen Low-End-GPUs von Ati und Nvidia - zumal diese noch in 55nm gefertigt sind.
Der Vorteil des ganzen liegt natürlich in der verringerten Leistungsaufnahme: 1.) Durch den Shrink von 65 auf 45nm; 2.) dadurch, dass die Stromversorgung mit der CPU geteilt wird und dadurch ein größerer Wirkungsgrad erreicht wird.
 
Nun ja, abgesehen von mir ist in meinem Freundeskreis keiner, der einen Monitor mit DVI oder HDMI hat :rolleyes:
Und vor allem die Mädchen, die haben in der Regel PC's mit onboard Grafik (und werden solche wahrscheinlich immer haben). Wäre also nicht so von Vorteil, die VGA Unterstützung komplett zu entfernen..
 
Ich glaube NICHT das man per Adapter VGA nachrüsten kann. Entweder unterstützt ein Chipsatz das Analoge Signal oder nicht. Es ist dem Chipsatz total egal wie der Anschluss ist. Aktuelle Chipsätze wie zB. 780G unterstützen 1 Digitales + 1 Analoges Signal dh. man kann ein analoges Gerät und ein digitales anschließen. Nicht aber zB. 2 Analoge Monitore. Die entsprechenden Mainboards haben auch nur DVI-D und keine DVI-I Anschlüsse. Zweiteres ermöglicht das nutzen eines DVI -> VGA Adapters.

Intel hingegen wird nur 2 Digitale Signale unterstützen. Dh. man hat wohl einen DVI-D + (Displayport oder HDMI).
 
Ist auch besser so, es lebe das digitale Zeitalter!
 
Ich kann nur hoffen das der VGA Port damit endlich ausstirbt. Wenn man sieht wieviele office kisten tlw. in der lage wären per dvi benutzt zu werden aber es meist nur an einer schnittstelle scheitert. Entweder haben rechner oder tft kein dvi oder ab und an fehlt einfach nur das kabel.
Wäre nicht diese schwachsinnige gebühr die vom zoll erhoben wird wäre dvi schon längst auch in jedem 80€ monitor verbaut und vga mindestens 2 jahre tot, genauso wie agp.
 
TeHaR schrieb:
Ich glaube NICHT das man per Adapter VGA nachrüsten kann. Entweder unterstützt ein Chipsatz das Analoge Signal oder nicht. Es ist dem Chipsatz total egal wie der Anschluss ist. Aktuelle Chipsätze wie zB. 780G unterstützen 1 Digitales + 1 Analoges Signal dh. man kann ein analoges Gerät und ein digitales anschließen. Nicht aber zB. 2 Analoge Monitore. Die entsprechenden Mainboards haben auch nur DVI-D und keine DVI-I Anschlüsse. Zweiteres ermöglicht das nutzen eines DVI -> VGA Adapters.

Intel hingegen wird nur 2 Digitale Signale unterstützen. Dh. man hat wohl einen DVI-D + (Displayport oder HDMI).

Genau so sehe ich das nämlich auch.
Wo will man denn das analoge Signal für den Adapter her nehmen, wenn ja gar kein Analoges Signal existiert?! Der Port ist nämlich komplett egal. Wenn der Chip kein VGA unterstützt kann auch über einen Adapter daran nicht geändert werden.

Würde das daher mal als Logikfehler im Beitrag sehen...
 
Hier wird wieder ein Quark geschrieben... :rolleyes:

Es ist ein leichtes auf VGA zu adaptieren. Entwender aktiv (ganz leicht mit DA-Wandler) oder passiv wenn das volle DVI-I-Signal zur Verfügung steht. Vielleicht sollte man der ein oder andere sich etwas in die Materie einlesen bevor solch ein Unsinn hier dahergeblubbert wird.

http://de.wikipedia.org/wiki/Digital_Visual_Interface
 
In der News steht, dass kein VGA unterstützt wird. Das ist natürlich keine exakte Aussage, suggeriert für mich aber, dass der DAC wegrationalisiert wurde. Dann existiert auch kein analoges Signal und somit wirds auch keine DVI-I geben, sondern nur DVI-D.
 
Tut mir leid, aber irgendwie kann ich es nicht verstehen, dass Intel auf VGA bei einem G45 verzichten möchte.
Wie ja schon in der News beschrieben, haben die meisten Monitore des unteren Preissegments nur VGA (evtl. noch DVI als zweite Schnittstelle, scheint mir aber relativ selten zu sein) und eben zu jenem unteren Preissegment passt der G45 als 2D/Office Chipsatz - ich mein, der G45 ist wohlkaum als "HighEnd" zu deklarieren - warum versucht Intel also mit dem G45 Chipsatz in einen Monitormarkt (wie in der News erwähnt, haben "nur" die teureren Monitore digitale Schnittstellen) einzusteigen, der unpassend für einen so "schwachen" Chipsatz ist?
Oder wollen sie hier eine Art Vorreiterrolle für die digitalen Signale spielen?

(Die Fragen fallen natürlich weg, wenn der Chipsatz DVI-I unterstützt)
 
Denahar schrieb:
Hier wird wieder ein Quark geschrieben... :rolleyes:

Es ist ein leichtes auf VGA zu adaptieren. Entwender aktiv (ganz leicht mit DA-Wandler) oder passiv wenn das volle DVI-I-Signal zur Verfügung steht. Vielleicht sollte man der ein oder andere sich etwas in die Materie einlesen bevor solch ein Unsinn hier dahergeblubbert wird.

http://de.wikipedia.org/wiki/Digital_Visual_Interface

Na klar geht das. Das ist dann aber kein kleiner Adapter sondern ein eigenes Gerät (das natürlich auch nicht sonderlich groß ist) und einen eigene Stromzufuhr benötigt.

Wenn man von einem Adapter bei DVI spricht ist normalerweise immer der kleine passive Stecker gemeint ;)
 
Sie wollen halt einfach endlich mal die neue Technologie pushen. Und das mMn auch völlig zu Recht. Es kann doch nicht sein, dass wir immer noch einen Anschluss von 1987 unterstützen, der eigentlich einmal für Auflösungen von 640 × 480 gedacht war. Noch dazu, wenn es seit 1999 das Nachfolgeformat DVI gibt. Es hat doch auch nicht so lange gedauert von paralell auf USB zu wechseln.Wenn heute noch Monitore auf dem Markt sind, die nur VGA unterstützen, dann ist das ganz einfach eine Frechheit dem Kunden gegenüber.
 
Zuletzt bearbeitet:
1337 g33k schrieb:
Zitat von Wikipedia
DisplayPort 1.1 erlaubt Kompatibilität zu VGA, DVI und HDMI, so dass ein Anschluss über preisgünstige passive Adapter möglich ist.
Auch nur in der Theorie. Zeig mir mal nen preisgünstigen DP->VGA Adapter im Handel.

Denahar schrieb:
Hier wird wieder ein Quark geschrieben... :rolleyes:
Es ist ein leichtes auf VGA zu adaptieren.
Jaja, nur weil du nicht dazu in der Lage bist zu merken, dass hier von passiven Adaptern geredet wird, sind alle anderen blöd.:rolleyes:
Mit einem Wandler ist das natürlich möglich, warum auch nicht? So eine selbstverständlichkeit muss gar nicht erst diskutiert werden...
 
Naja, ehrlich gesagt... wer hat schon noch einen Monitor mit nur VGA? Und vor allem, welcher der Leute, die diese Frage mit Ja beantworten, kauft sich so einen Prozessor?
 
Zurück
Oben