News Spezifikationen von Asus' P8Z68-Serie enthüllt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.924
Bereits in der kommenden Woche wird der offizielle Startschuss für Intels Z68-Chipsatz erwartet. Neue Informationen enthüllen nun die technischen Daten der ersten Z68-Mainboards von Asus. Demnach soll es zunächst drei Modelle der P8Z68-Serie geben.

Zur News: Spezifikationen von Asus' P8Z68-Serie enthüllt
 
Warum zum Geier ist immer noch VGA mit drauf, dafür aber kein einziger Display-Port Ausgang.

Ich kann mir kaum vorstellen dass es in dem Bereich wo das Board eingesetzt werden wird noch viele Leute gibt die auf VGA setzen, im Gegensatz zum Office Bereich.

Kaum ein Mensch wird so ein Board für einen Office PC nutzen.

Obendrein gibt es doch für Display-Port soweit ich weiß Adapter für sowohl VGA/DVI/HDMI.

Über DVI ist ebenso ne analoge Bildausgabe möglich so könnte man einfach einen Adapter beilegen und den anderen VGA Port zumindest durch DVI ersetzen
 
Verstehe auch ehrlich gesagt nicht,warum gerade das Deluxe Board nicht die Ausgänge der beiden anderen Boards besitzt!
 
Wäre eigentlich ein 2D/3D Modus möglich, wie bei manchen Notebooks?
Das man dann nur noch das Bild einfach nur Durchschleift.
Sowas wäre mal genial.
 
Zuletzt bearbeitet:
Ich find es beeindruckend das die einen Bluetooth-Chip verbaut haben. Hab ich noch nicht gesehen bis jetzt.
(Ja kann mir denken das es das schon 100mal gab, aber ich habs halt noch nicht gesehen)
 
Wäre eigentlich ein 2D/3D Modus möglich, wie bei manchen Notebooks?
Das man dann nur noch das Bil dann einfach nur Durchschleift.
Sowas wäre mal genial.

Außer mit dem Deluxe Board müsste das gehen soweit ich weiß

Ich find es beeindruckend das die einen Bluetooth-Chip verbaut haben

Naja aber wie sich das ganze dann in einem Metall-Käfig macht wenn der Empfänger mitten drin sitzt. Wollte aus optischen Gründen auch mal nen WLAN-Stick im PC per internen USB Anshcluss unterbringen. Das Signal war da komplett weg.

Man hätte statt des BT Moduls sinnvollere Sachen drauflöten können, wie zB zeitgemäße und sinnvollere Videoausgänge

Display-Port soll doch DVI ablösen in Zukunft. Von nem Z68 Board kann man dann schon erwarten dass es einigermaßen auch für die Zukunft gedacht ist in meinen Augen.
 
Zuletzt bearbeitet:
Flasht mich jetzt nicht wirklich
ich hätte mir da schon etwas mehr erwartet im gesamt nicht wirklich durchdacht finde ich.
Wie es auch schonmeine vorredner sagten wäre ein display port doch schon nett.
Das mit dem Bluetooth chip mus man abwarten ob das so klappt.
Ich würde mir boards mit Bluetooth und W lan wünschen .
 
Wobei es im Endeffekt eh egal ist, ob DP oder DVI.
Die Datenrate ist ein bisschen höher, dennoch schafft Dual Link DVI auch 2560X1600. Das reicht für die meisten Monitore.
 
Wie funktioniert der Wechsel von iGPU zu dGPU? Monitorkabel immer umstecken?
 
Wobei es im Endeffekt eh egal ist, ob DP oder DVI.
Die Datenrate ist ein bisschen höher, dennoch schafft Dual Link DVI auch 2560X1600. Das reicht für die meisten Monitore.

Im Grunde schon, momentan reicht noch DVI für fast alles. Man muss halt nur mehr Kabel ziehen unter umständen, USB, Audio.

Aber zumindest hätte man statt den VGA Connector nen 2ten DVI Connector verlöten können.

Wie funktioniert der Wechsel von iGPU zu dGPU? Monitorkabel immer umstecken?
Signal wird intern durchgeschleift, sodass man nix umstecken muss
 
Muss die zusätzliche Grafikkarte das dann unterstützen? Oder woher weiß die dann, dass das Bild Signal nicht am eigenen Ausgang raus geht? Oder andersrum... Woher weiß die Graka dann, dass sie nix machen muss, außer das Bild durchsenden?
 
@C-h-r-i-s

Schon Ende April wurden (für ca. 1 Woche) die Gigabyte-Modelle:
GA-Z68X-UD4, ...UD5 und ... UD7 von 5-6 polnischen Shops auf Geizhals.at gelistet. Sind dann aber wieder (vorerst?) rausgenommen worden.
Preislich lagen sie so bei ca. 175€, 230€ und 290€, entsprechend der obrigen Reihenfolge.

Von einem britischen Shop werden zur Zeit 3 ASRock-Boards angeboten.
Na ja, kommende Woche werden es wohl deutlich mehr werden. :D

Gruß alcBastardo
 
@morku: das macht der chip von lucid.
die karte berechnet einfach was ihr an daten zugesand wird und wenn nix kommt, dann idelt sie einfach rum.
deshalb ist die lösung von nvidia selbst (synergie) auch besser, dort wird die dedizierte gpu ganz abgeschaltet, so dass sie im leerlauf garnix verbraucht.

andere hersteller haben auch schon über die lösung von lucid geklagt, die hat noch so viele kinderkrankheiten, dass gigabyte sie garnicht erst auf den besseren z68-boards verbaut...
und dabei kostet der chip den hersteller noch extra platz auf dem pcb und geld für die lizens... synergie gibt es für lau zu jeder nvidia-graka der aktuellen serie.
 
Ich warte auf die Specs/Kosten vom Gene-Z.

Mein aktuelles Maximus III Gene ist der Hammer und kann es mit jedem ATX-Board aufnehmen.
Stabilität TOP, Austattung TOP, Design TOP!
 
PCIe-x16 @ X8/X8/X4 das tut weh.
P8Z68 Deluxe Gbit LAN Realtek/Intel das tut auch weh.
 
Lucid Virtu ist für mich derzeit sinnlos. Man kläre mich auf:

Im i-mode hängt der TFT am Onboard Ausgang. Im d-mode hängt der TFT an der externen Grafik. Im 2D Modus ist die Onboardgrafik aktiv und im 3D Modus die externe Grafik. Soweit verstehe ich es. Aber es gibt ja keine SLI oder CF Modus. Worin besteht am Ende der Unterschied zwischen einer einzelnen Grafikkarte und der Kombination aus igp und externer Grafik? Stromsparend wird das Ganze ja nicht sein?

Das V-Board hat nur "2x6 Gbit", aber ich wette, dass die 4x6 Gbit Ports wieder durch den Marvell realisiert werden. Und der ist bekanntlich nicht der Schnellste. Auf Firewire kann ich verzichten. Intel Lan ist genial. BT brauche ich nicht, aber das Modul kostet sehr wahrscheinlich auch nur 1 Euro im Großmarkt.

Was wirklich neu ist: DDR3-2200 statt DDR3-2400 wird unterstützt. Was daran wichtig ist: die IGP hängt am Hauptspeicher mit dran und profitiert davon.
 
@Low:
Auf tomshardware habe ich einen Bericht gelesen, wonach das Ganze in der Praxis so aussehen soll:
Im 2D-Betrieb - "interne Grafik" - im 3D-Betrieb die Grafikkarte, wobei Du dann gleichzeitig, währenddem Du zB spielst vom CPU-Grafikkern gleichzeitig im Hintergrund ein Video rendern lassen kannst.

Imho - kompletter Schwachsinn, aber eben wie eingangs angeführt "IMHO".

Wirklich interessant wäre das Ganze gewesen, wenn man den internen Grafikkern zB für die Berechnung von PhysX-Effekten etc. hätte verwenden können, während die Grafikkarte sich ihrer Hauptaufgabe widmet.

Aber so ...
Wird bei künftigen CPU's mit Grafikkernen wohl möglich sein, derzeit aber leider noch nicht.
 
@Tbird700

Das wage ich anzuzweifeln, dass Nvidia ihr hoch heiliges PhysX von einer Intel CPU im "back" berechnen lassen und man es somit plötzlich auch mit AMD Karten nutzen kann. ;)
 
Zurück
Oben