News IDF: 150 Watt für High-End-Grafikkarten

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Der PCI Express-Standard für High-End-Grafikkarten nähert sich allmählich seiner Fertigstellung. So wurde Besuchern des Intel Developer Forum Fall 2004 vergangene Woche der aktuelle Status und weitere Details bekannt gegeben.

Zur News: IDF: 150 Watt für High-End-Grafikkarten
 
150 Watt für Grafikkarten? Wohin soll das führen? Brauchen wir irgendwann 600 Watt und stärkere Netzteile?
 
Die sollen sich an der CPU-Entwicklung ein Beispiel nehmen in Sachen Stromverbrauch! (mal abgesehn vom Prescott)
Stromsparfunktionen à la C'n'Q wären schonmal n Anfang (oder haben die sowas bereits?!)
Hoffentlich wird der Verbrauch wieder geringer, wenn die in 90nm-Strukturen fertigen...
 
a)
PCI Express 1.1-Standards - war also alles noch nicht ausgereift, daher wohl die Verzögerungen

b)
Bei 150 Watt, dann auch noch im beengten AGP-Slot, da fehlen mir die weiteren Worten.
In BTX dann wohl besser gekühlt 250 Watt ...
 
Das ist schon sehr stark am Limit. Ich weiß nicht ob die Entwicklung der Pixelbeschleuniger da nicht in eine völlig falsche richtung geht. Es sollte doch ein ziel sein die Watts zu senken oder vieleicht so etzwas wie Qool n Quit für Garkas wenigstens zu entwickeln.
AMD hat da ja schon nee gute Idee, vieleicht sollte soetwas auch für Garkas geben
 
@5 Das tun sie doch!
Ich kann mich noch an Zeiten erinnern da wurden die Leute ausgelacht weil sie sich nen Venti auf die CPU gebastelt haben. Heute natürlich undenkbar, aber dafür is ja auch die Rechenleistung ein wenig gestiegen.
 
Aber was sollen sie machen? wenn sie zb den Takt runternehmen und dafür aber mehr Pipelines bauen geht das auf das selbe hinaus! Ich hab leider auch zuwenig Ahnung um irgendwelche effizienten Lösungen vorzuschlagen. Vielleicht sollte man halt wieder eher solche Konzepte verfolgen, wie sie schon bei der Kyro GPU verwendet wurden!
 
Für diese Entwicklung sind wir doch selber schuld! Wir sind doch diejenigen, die immer schnellere Grafikkarten haben wollen, ich höre schon jetzt Sachen wie "Für mich sind 256 MB GDDR3 Speicher schon jetzt Pflicht, mit 128MB läuft bei mir nichts!". Alles hat seinen Preis und mit einem höheren Stromverbrauch bezahlen wir es! Den Verbrauch bei Grafikkarten wird schwer sein zu reduzieren, C & Q wird wohl nicht ganz soviel bringen wie bei CPUs. Man hat die Möglichkeit, den Verbrauch immer zu senken, indem man Speicher herstellt, die eine besserre Pro Mhz Leistung haben und dadurch weniger verbrauchen wie bei GDDR 3.

Bei CPUs bin ich optimistisch für die Zukunft was den Verbrauch angeht und nicht bis der Desktop Pentium M kommt. Es gibt einen Prototyp der bei 300Mhz genau so schnell wie ein P4 2.0 Ghz ist. Oder die Transmeta CPU, die bei 1.6 Ghz 3 Watt verbraucht. Das macht mich optimistisch.
 
also bei nvidia gibs ja schon ne art energieschoner indem man den takt im windowsbetrieb senkt und somit auch den stromverbrauch. ok,es ist nicht viel aber immerhin ein anfang. das die leute hier immer merh leistung wollen is doch klar, aber es geht auch mit weniger strom, wie z.b. bei den mobilen prozessoren. eine höhere pro-takt-leistung wäre schon sehr sinnvoll, aber das kann noch ein bissi dauer bis es soweit ist das es soweit ist (ich kann mich auch irren, aber bitte nicht gleich schlagen ;))
eine andere möglichkeit ist es schneller auf die gleichen fertigungstechnologien ala 0.9 nanometer wie bei den prozessoren.( oder auch niedriger). der nachteil daran ist das wir dann die forschung/produktion zahlen müssen (tun wir ja aber soweiso schon :rolleyes:)
naja im endefekt zahlen wir sowieso immer das gleiche...
 
"Energieschoner" finde ich Klasse! Eine richtig geniale Wort-Neuschöpfung!

Sollte ich mir "patentieren lassen den Namen". Und ein passendes neues, richtig hippes Produkt mir ausdenken zu dem Begriff.

Seh' im Geiste schon die passende Fernsehwerbung (unserer Firma) dazu auf allen Kanälen: "DER ENERGIESCHONER", "das neue Produkt, das jeder haben muß", "fehlte bislang noch in jedem Haushalt, aber da kann man jetzt ja dankenswerterweise Abhilfe schaffen"... "nur heute in unserem Einführungsangebot, zwei Stück ENERGIESCHONER zum Preis von einem..."
 
Zuletzt bearbeitet:
falls ich mir nen neuen recher hol, iguck ich glaub schon mal bei ebay nach nem baustromverteiler oder so, :p
 
@perfekt!57
falsche herrangehensweise...
richtig:
heimlich und im stillen patentieren lassen und warten bis jemand gegen das patent verstoesst und dann absahnen =D
 
"energieschoner" ist ein super Text für ein T-Shirt oder die Sig.! :D Gibt gleich mal 'nen Gummipunkt für den Schöpfer!
Aber btt: Ist schon bitter, wenn die GraKa alleine potentiell mehr verbraucht als die Zimmerbeleuchtung und der PC an sich ungefähr bei der Leistungsaufnahme eines billigen Kühlschranks liegt. Wird wohl höchste Zeit für neue Grafiktechnologien?
 
150 Watt für Grafikkarten, 130 Watt für CPU, wohin soll das führen? Inzwischen haben Grafikkarten im Leistungsverbrauch die CPU's überholt. Hoffentlich gibt es auch Leistungsstarke energiersparende Karten, á lá ULV.

[EDIT] An die Vorredner: Das mit dem hohen Stromverbrauch ist ein Teufeskreis. Wie wollen bessere Game-Performance, die Spiele-Entwickler machen dass, auf kosten von Leistung, und die Hardware Hersteller ziehen mit. Die Gamer kaufen dann wieder nur die "guten"(Stromverbrauchenden)Karten usw :rolleyes: :o :(
 
Zuletzt bearbeitet:
Wenn das so weitergeht - wann kommt wohl die erste Stromflatrate, die zusammen mit einem High-End PC bzw. mit einer High-End Grafikkarte verkauft wird?

Mich stört bei dieser Entwicklung einfach, dass zu sehr auf neue Technologie gesetzt wird, als das die vorhandene Hardware ausgereizt wird. Wenn ich auf der X-Box einige Spiele bestaune, dann frage ich mich, wie die Programmierer es nur schaffen aus solcher Hardware noch teilweise echte Grafikhammer rauszukitzeln. Natürlich ist es auf dem PC ungleich schwieriger. Hier spielen wesentlich mehr Faktoren eine Rolle. Jedoch klagen Spieleentwickler ja jetzt bereits einfach zu wenig Zeit zu haben, um sich bei der Entwicklung eines Spieles immer wieder in neue Grafikkarten-Hardeware einzuarbeiten.
Der leid tragende ist der Zocker, der mal wieder ein langes Gesicht macht, wenn nach der Installation das heiß erwartete Spiel nicht läuft.

Fakt ist nunmal: Ich brauche keine Grafikkarte, die 150 Watt verbrät, um schöne Spiele zu daddeln. Ledeglich fähige Leute, die vorhandene Hardware ausnutzen. Aber das wird wohl ein Wunschtraum bleiben. Höher, schneller, weiter, mehr - ich erkundige mich bei meinem Stromlieferanten schonmal nach den Preisen für ein eigenes Kraftwerk...
 
Ich habe es ja schon mehrmals in diesem Forum erwähnt.
Diese Stromfresserei bei GraKas sollte in hohem Maße die Kaufentscheidung von uns allen beeinflussen.
Bei mir ist das schon der Fall. Habe mir keine GeForce 6800 gekauft, weil die momentan eh zu teuer ist, zu viel Strom frisst und von keinem Spiel wirklich ausgereizt wird (es sei denn man spielt mit zig-fach Anti-Aliasing und in astronomischen Auflösungen).

Bei über 200 Mio. Transistoren brauchts halt viel Strom um die Karte zu betreiben. Das wird in Zukunft nicht anders werden.
Aber Gott sei Dank brauchen die Karten ja nicht die ganze Zeit so viel Saft. Im 2D Betrieb werden sie ja wenigstens runtergetaktet.

Jedenfalls tut meine GeForce FX 5900 Ultra brav ihren Dienst und beschleunigt auch Doom3 auf gute Frameraten. Bin mal gespannt wie Half-Life sich verhält.

@18: Kauf dir ein Ergometer. Da kannst du ordentlich 150 Watt in die Pedale treten und in einem Akku speichern. Davon kann die GraKa ja was nehmen :). Man wird auch noch schlank und fit dabei.
 
Zurück
Oben