News Clarkdale ohne VGA, aber mit HDMI & DisplayPort

Ycon schrieb:
wer hat schon noch einen Monitor mit nur VGA? Und vor allem, welcher der Leute, die diese Frage mit Ja beantworten, kauft sich so einen Prozessor?

eine cpu für 84$ gehört wohl bei intel klar zum unteren marktsegment und bedient daher durchaus Leute die solche Monitore haben.


dgschrei schrieb:
Es kann doch nicht sein, dass wir immer noch einen Anschluss von 1987 unterstützen, der eigentlich einmal für Auflösungen von 640 × 480 gedacht war.


es kann doch nicht sein das wir immernoch Prozessoren benutzen die veraltete Befehlssätze von 1974 verwenden und ursprünglich zur Ansteuerung von maximal 16 Kilobyte Speicher vorgesehen waren.


VGA ist nicht tot zu kriegen. Soll mir mal einer von den Digitalhanseln zu einem Vortrag kommen.

Immer wieder köstlich wenn die Leute mit ihren DVI-D only Notebooks dastehen wie blöd weil der Beamer nur VGA kann.


Zudem ist es in vielen Bereichen schlicht unerheblich ob vga oder dvi/hdmi genutzt wird und vga lässt sich oftmals leichter umsetzen und ist billiger.
 
Dieser Prozessor mit gpu zielt wohl aufs untere Marktsegment also grade an Kunden die noch am häufigsten nur einen VGA haben.

Ansonsten glaube ich auch das der Stromverbrauch mit das interessanteste daran sein wird.
 
Wollen auf digital umschwenken aber bei Netbooks werden nur VGA Ports verbaut wegen dem ranzigen Chipsatz... -.-
 
Realsmasher schrieb:
...Immer wieder köstlich wenn die Leute mit ihren DVI-D only Notebooks dastehen wie blöd weil der Beamer nur VGA kann...
...Scheiß-Beamer halt...! ;)

Ich finds ok so von Intel. Vor allem daß der Displayport gepusht wird, der würde eigentlich ausreichen als Standard-Schnittstelle.
 
Zuletzt bearbeitet:
Ich gehe davon aus das Intel es einfach den Board-Herstellern überlässt, ob sie noch ein RAMDAC samt VGA-Anschluß auf die Platine löten.
Wäre eh ungeschickt das Teil mit auf die CPU zu bauen um dann analoge Signale über den CPU-Sockel nach hinten zu führen.

Andere Funktionen (IDE etwa ) werden ja auch nicht direkt von den heutigen Chipsätzen unterstützt. Trotzdem is es noch auf jedem Board drauf.

Zumindest mittelfristig geht ohne die analogen Anschlüsse wie gesagt eh nochnix - Röhrenbildschirme, TV-Out für Röhrenfernseher (oder auch so manchen alten LCD), Beamer, billige Flachmänner...steht einfach noch zuviel analoges Zeugs rum, gerade beim 0815-User.
...und nein, es wird auch nicht jede Uni alle paar Jahre 100 funktionierende Beamer wegwerfen, nur weil malwieder ein neuer Standard definiert wurde...trotz Studiengebühren ;)
 
Zuletzt bearbeitet:
Die Sache ist doch das es echt niemandem weh tut wenn dvi-i statt dvi-d verwendet wird.

insofern macht es auch keinen Sinn das VGA aussterben soll laut Meinung mancher hier.


Nur weil irgentwo ne Magnetschwebebahn rumfährt heißt das noch lange nicht das es nutzlos ist normale Eisenbahnschienen zu verlegen.


Kompatibilität zu bisheriger Technik ist DER Grund warum wir heute überhaupt mit den Rechnern arbeiten mit denen wir arbeiten.


Wenn es z.b. nicht um Softwarekompatibilität ginge würde man einen Teufel tun und den X86 Krempel nutzen.

Genauso wie sich ein Anschluss nicht abschaffen lässt der bei ~99% aller externen Monitore/fernseher/beamer vorhanden ist.
 
flo1212 schrieb:
Na klar geht das. Das ist dann aber kein kleiner Adapter sondern ein eigenes Gerät (das natürlich auch nicht sonderlich groß ist) und einen eigene Stromzufuhr benötigt.
Nö, ich sprach von einem passiven Adapter, wenn DVI-I zur Verfügung steht. Das gibt es bereits in einem Kabel (DVI -> VGA). ;)

bensen schrieb:
Mit einem Wandler ist das natürlich möglich, warum auch nicht?
Richtig lesen hilft (manchmal). Ich sprach auch von einem passiven Adapter. :rolleyes:
 
Klar und wen meinst du dann in Post #34?
Es wurde hundert mal vor dir gesagt das es auch nen DVI-I sein könnte, wenn ein analoges Signal möglich.
nur wenn DVI-I möglich ist, ist auch VGA möglich.
 
wenn DVI-I zur Verfügung steht

was aber nicht der Fall ist.


Die CPU mit GPU liefert ja keine direkten Anschlüsse sondern nur Leitungen.

Wenn man also sagt das VGA nicht angeboten wird kann das nur heißen das die Leitungen nicht angeboten werden.

Oder andersrum : würden sie diese Leitungen anbieten, dann müssten sie ja nicht sagen das es kein VGA gibt, was ja eindeutig ein Negativmerkmal ist.


Daraus folgt nunmal das auch kein dvi-i funktioniert.
 
Denahar schrieb:
Hier wird wieder ein Quark geschrieben... :rolleyes:

Es ist ein leichtes auf VGA zu adaptieren. Entwender aktiv (ganz leicht mit DA-Wandler) oder passiv wenn das volle DVI-I-Signal zur Verfügung steht. Vielleicht sollte man der ein oder andere sich etwas in die Materie einlesen bevor solch ein Unsinn hier dahergeblubbert wird.

http://de.wikipedia.org/wiki/Digital_Visual_Interface

Aktiv: Ja aktiv umwandeln kann man immer trotzdem kann man das nicht durch einen Einfachen 5€ Adapter den wohl jeder kennt und was in der News beschrieben wird. Aktive Adapter kosten locker das 10x und das lohnt sich garnicht mehr. (Da kannst du dir schon ne PCIe Karte für 30€ kaufen) Und Passiv wird wie schon beschrieben nicht gehen da es kein Volles DVI-I Signal geben wird. Um ein Analoges Signal bereit zu stellen braucht man extra Logik im Chip die Intel wohl aus Platzgründen nicht einbaun wird.

In der Beziehung muss ich auch Intel (wo ich sonst nicht so der Fan von bin) ein Lob aussprechen. Sie gehen den Weg neue Technologien Aktiv zu fördern indem sie die Uralt Technik nicht ewig unterstüzen. Bsp ua.: Parallelport und die IDE Controller.
 
Nein, ist das gleiche wie mit DVI. Displayport kann Analoge Signale übertragen und dann geht auch ein billiger Adapter. Er muss es aber nicht können.
 
Also ich finds ganz gut, wird bestimmt jetzt nicht der Hammer werden aber für den Anfang doch ganz gut. Intel scheint die Fertigung schon gut zu beherschen. Bei denen schreitet es ja nur so nach vorne mit den größen der Chips. Naja warten wir ab aber ich denke die kommenden werden besser und von der Leistung her schon enorm werden (für eine interne Lösung)
 
Vielleicht geht es einfach darum, dass Clarkdale selbst kein analoges Dignal ausgibt, die Hersteller werden wohl den Zusatzchip dafür auf dem Board platzieren. Dort macht er sich viel besser als auf dem CPU-Plättchen, wo der Platz knapp ist.

In der Hinsicht ist die News unklar, was wohl damit zusammenhängt, dass Fudzilla die Quelle ist.

AMD hat übrigens schon seit Ewigkeiten DP und HDMI nativ drin, also in der Hinsicht nix spektakuläres.

Was ich aber verantwortungslos finde ist, dass immer noch so viele Geräte mit VGA und ohne digitale Alternative verscherbelt werden bzw. wurden.
 
Realsmasher schrieb:
eine cpu für 84$ gehört wohl bei intel klar zum unteren marktsegment und bedient daher durchaus Leute die solche Monitore haben.

es kann doch nicht sein das wir immernoch Prozessoren benutzen die veraltete Befehlssätze von 1974 verwenden und ursprünglich zur Ansteuerung von maximal 16 Kilobyte Speicher vorgesehen waren.

VGA ist nicht tot zu kriegen. Soll mir mal einer von den Digitalhanseln zu einem Vortrag kommen.

Immer wieder köstlich wenn die Leute mit ihren DVI-D only Notebooks dastehen wie blöd weil der Beamer nur VGA kann.

Agreed!

Ich halte diese contra-Analog-Entscheidung für einen nicht zu unterschätzenden Nachteil. Persönlich kenne ich einige PC-User die trotz der Möglichkeit des digitalen Anschlusses eher in bereits investierte analoge Hardware setzen. Man mag es kaum glauben. Aber es gibt noch genug Leute die einen CRT-Monitor zu schätzen wissen. Zumindest jene die ein hochwertiges Modell zur Verfügung haben.

Ich benutze selbst noch VGA. Und das mit Sicherheit noch ein paar Jahre. Wenn der Clarkdale-IGP keinen analogen Anschluss ermöglicht ist dieser für mich ohnehin uninteressant.
 
Zuletzt bearbeitet:
Wird endlich mal Zeit, VGA den Kampf anzusagen. Wundert mich eigentlich nur, dass Intel solange dazu gebraucht hat.
Wer übrigens einen hochwertigen CRT benutzt, wäre sehr schlecht beraten, den an eine OnBoard-Grafik anzuschließen. Hat schonmal jemand bewundert, wie matschig das Signal einer OnBoard-VGA bei 1600x1200 und 85Hz wird? Habs mir schonmal angetan, wirklich gruselig. Naja, die VGA-Ausgänge der dedizierten GraKas sind auch nicht viel besser. Für einen wirklich guten VGA-Ausgang müsste man heute noch ne antike Matrox kaufen. Irgendeinen Grund muss es ja geben, weshalb man die noch kaufen kriegt.

Beamer: Jeder halbwegs neue (~3Jahre) Präsentationsbeamer hat einen Digitaleingang. Wenn nicht, wirds Zeit für was Neues. Manche ganz neuen lassen sich sogar als USB-Display ansteuern, für ne Präsi reicht das.
 
Zuletzt bearbeitet:
Es ist eigentlich recht einfach zu erklären, warum Intel die GPU auf dem Sockel der CPU flanscht: Weil es geht!

Wer kauft anschließend noch Mainboards mit integrierter NVIDIA-Grafik ? Keiner!
Welche Firma kauft noch für Büroarbeiten eine Grafikkarte ? Keine, naja, zumindest nicht für die Tippsen!

Wir sind Aussenseiter! Wir achten auf Geschwindigkeit beim SPielen, Treiberunterstützung bei Spielen und eventuell auch auf Linux-Treiber. Dass ist aber 90 % der Kunden vollkommen egal! Sonst wäre auch nicht das Google Chrome Betriebssystem für icrosoft eine wirklich große Gefahr!

VG,
Matthias
 
Wird endlich mal Zeit, VGA den Kampf anzusagen

wenn es zeit wird, warum dann nicht durch den Versuch mit angeblich so sehr überlegender Technik ?

Achja, klappt ja nicht, dvi gibts seit Jahren und wird trotzdem im Alltag viel weniger genutzt obwohl es besser ist.


Beamer: Jeder halbwegs neue (~3Jahre) Präsentationsbeamer hat einen Digitaleingang. Wenn nicht, wirds Zeit für was Neues.

genau, weil intel nicht die paar cent mehr für das analoge signal ausgeben will muss man für mehrere zehntausend euro (wenn nicht mehr) in jeder Institution neue Beamer kaufen.

Manche Leute haben echt verquere Vorstellungen.
 
Naja, wenn bei der Anschaffung der Beamer nicht auf entsprechende Schnittstellen geachtet wurde, könnte man den Verantwortlichen fehlenden Weitblick unterstellen. Aber das wird jetzt OT.
Ich kenne das Problem eher andersrum: Es sind an den Ausgabegeräten digitale Schnittstellen vorhanden, aber an den Zuspielern nicht.

Was soll die "angeblich so sehr überlegene Technik" sein? Display Port ist doch da. Bitte um Erklärung.

Außerdem kommt die neue CPU ja erstmal im Desktopbereich, da kann man bei Bedarf noch VGA nachrüsten. Im mobilen Bereich wird Intel sicher noch eine Weile VGA verbauen, sodass die armen Institutionen Zeit haben, sich ans digitale Zeitalter anzupassen. Ach ja selbst die in meiner ehemaligen Uni vorhandenen antiken Beamer hatten DVI. War halt nur nicht verkabelt, aber das sollte ein lösbares Problem sein.

Ich verstehe einige Leute hier nicht, es kann nicht digital genug sein, aber da, wo es wirklich was bringt, wird an Relikten aus grauer Vorzeit festgehalten.
Habe zwar auch noch eine knapp 30 Jahre alte Bandmaschine und einen Plattenspieler für besondere Gelegenheiten da, aber das ist halt tote Technik, wie VGA.
Für alle Tage darfs ruhig digital sein.
 
Zuletzt bearbeitet:
Realsmasher schrieb:
genau, weil intel nicht die paar cent mehr für das analoge signal ausgeben will muss man für mehrere zehntausend euro (wenn nicht mehr) in jeder Institution neue Beamer kaufen.
Die Lösung ist ganz einfach, man kauft einfach nicht die neuen Intel-CPUs.
 
Zurück
Oben