News Erste Prescotts nicht in 90 nm?

na jetzt ist auch klar warum die soviel leistung haben (100w)
 
Ich denk mal Intel kann AMD so nicht davonlaufen.Hat also auch was gutes.Wer weiss wer von beiden als erstes die neue
Fertigung(0.09) hinbekommt den AMD hat ja IBM als Unterstützung.
 
@Jan:Aber na gut sind ja alles nur Spekulationen obwohl ich sie für meinen Teil für war halte
 
Wers glaubt Haha !
Welchen Mainboard Hersteller habt ihr den gefragt ?

Schickt mir einen Prescott zum versuch und ich wette das er auf meinem IC7-G leuft mein P4 den ich unter vollast 24h laufen lies hat eine verlustleistung von : 97.08 Watt @3,5 Ghz
Standard Verlustleistung: 68.4 Watt @ 2,8 Ghz
Zunahme: 41.93 %
CPU Takt: 2800 @ 3500

und der leuft super stabil und das Mainboard wird nicht sehr warm und in zwei wochen kommt meine WaKü mal sehen wie hoch ich den P4 versuchsweise 24h bekomme und dann steigt sie Verlustleistung nochmals und ich wette der leuft dann immer noch stabil. Das könnt mich so aufregen.Ok ich finds auch scheiße das Intel nochmal mehr Chipsätze verkaufen möchte aber die User sind doch selbst schuld.
Ich werd dann mal einen Thread aufmachen wenn die Wakü da ist ! Dann kommen die 100 Watt verlust und er wird laufen ! SICHER !
 
1. Wie hast du das ausgerechnet? Linear? Wird wohl kaum gehen.

2. Wie oft denn noch. Es kommt nicht darauf an, was vereinzelte User mit guten Equipement aus ihrem PC holen. Hersteller müssen es für ALLE garantieren, also auch leuten wir mir, deren Systemp über der CPU Temp vieler Leute liegt. Wenn auch dort - unter extremen Bedinungen - alles glatt geht, DANN und ERST DANN kann man davon sprechen, dass etwas garantiert läuft!

Der nForce 2 hat auch desöfteren FSB400 gemacht - aber GARANTIERT! hat es nVidia erst mit dem nForce 2 Ultra 400.
 
Ok zu punkt eins ;-) hier ein Link damit kann man etwa was anfangen http://tweakers4u.de/new/do.php?include=tools/voltage.php und es gibt natürlich auch programme die sowas errechnen können es ist ja nur eine schätzung vieleicht liegt die Verlustleistung ja noch höher +-10 Watt weis keiner genau.

Zu Punkt zwei ok ich kann Glück haben aber es gibt so viele overclocker wie noch nie zur zeit speziell auf der Intel seite weil es so locker und einfach geworden ist sicher zu übertakten, hatte damals meinen 486 schon Übertaktet aber das ist ja kein vergleich mehr man hatt heute die möglichkeit 400 Mhz mehr aus der CPU kostenlos abrufen zu können und mit guter Kühlung mehr als 700 Mhz das so heftig.

Aber eine Garantie ist das auch nicht Du hast schon halbwegs recht !
 
Ich warte lieber noch 5 Monate länger und habe dann aber nen Prescott 3.4GHz+ in 90nm, 50 Watt Verlustleistung und den neuen Sockel T.
 
Das Problem sind ja die steigenden Anforderungen an die Spannungswandler, diese müssen laut anderen Intel-Papieren nun mehr Ampere leisten (Drain-Source-Strom,iMAX,etc.)und das selbst dann wenn die Aufnahmeleistung des Prescott nicht höher wäre als z.b. bei einem P4 3.2Ghz.
Mann vergisst bei all den Spekulationen finde ich immer eine Tatsache : Der Prescot hat nur 1.225Volt Vcore, als deutlich weniger als der P4-Northwood.
Weil laut "Spannung x Ampere = Watt" (UxI=P) heisst das das jetzt bei selbst gleichbleibender Verlustleistung jedoch nun weniger Vcore mehr Ampere seitens der Spannungswandler zur Verfügung stehen müssen damit die Rechnung weiterhin aufgeht. Beispiel, angenommen :
Pentium 4 3.2@3.4GHz bei Vollast = ca. 100Watt(TDPmax) :
100 Watt : 1.55Volt(Vcore) = ~65Ampere
Prescot 3.4 GHz bei Vollast braucht sagen wir auch "nur" 100Watt, aber :
100 Watt : 1.25Volt(Vcore) = ~ 81Ampere (deutlich mehr)

Aus dem Grund wurden beim Intel-D875PBZ für die neuere FMB 1.5-Prescot-Unterstützung auch andere Bauteile für mehr AMpereleistung optimiert, Zitat : "Change the 500 nH at locations L2B1 and L3B1 from 30 Ampere to 40 Ampere " Quelle : https://www.computerbase.de/2003-08/intel-macht-eigene-mainboards-prescott-tauglich/
 
zu der spekulation mit der simulation, die simulationen sind alle extrem vereinfacht das sie das mit heutigen rechnern auch noch in annehmbarer zeit fertig kriegen. und wenn die ein effekt bei der simulation nicht berücksichtigt haben dann sind solche abweichungen kein problem.
und wenn die halt den tuneleffekt zum beispiel etwas unterbewertet haben, dann ist das kein problem. oder es ist ein effekt aufgetrete wo die leckströme höher werden, diese leckströme sind eine konstante die nicht vom takt abhängt sondern nur von der spannung.
die laut gesenkte kernspannung ist ein guter indiz dafür das sie nicht auf 130nm bauen.
 
@Zock: zu deinen 700Mhz: Wenn du heute einen 2,8ghz prozessor um 700mhz übertaktest, ist das ein geschwindigkeitsgewinn von 25%. Damals zu Zeiten eines 468dx mit sagen wir mal 66 Mhz wäre ein um 25% übertakteter 468er 82,5 Mhz schnell. Das sind 16,5 Mhz. Das war damals auch drinne.
Sprich: du hast heute zwar mehr megahertz aber der proportionale Geschwindigkeitszuwachs is zu damals gleich geblieben.

So das war mein Senf dazu...

zum Thema: Ich hasse Spekulationen ;)
 
zu den Yamhill-Projekt gerüchten.. selbst wenn 64 bit register integriert sein sollten und diese deaktiviert sind bzw diese nicht arbeiten würde der prozessor nicht mehr leistung aufnehmen. Denn wer auch nur ein bisl ahnung von halbleitertechnologie hat weiss, dass ein transinstor im ruhezustand keine stromaufnahme hat (also nicht geschaltet)
d.h. keine zusätzliche leistungsaufnahme. beispiel p4 mit HT ist die HT einheit per bios deaktiviert sinkt die leistungsaufnahme der cpu. Die unproportionale steigerung der leistungsaufnahme beim prescott resultiert hauptsächlich aus 2 faktoren. Der eine ist, das die netburst architektur weiter optimiert worden ist und die executable einheiten besser ausgelastet werden. der zweite grund ist, dass bei kleineren strukturgrössen in der transistorherstellung wesentlich mehr leckströme auftreten. Damit hatte AMD auch schon zu kämpfen bei der ummstellung von 0,18µ auf 0,13µ. die ersten 0,13µ cpus von AMD liesen sich deshalb sehr schlecht übertakten. Intel kann nur versuchen durch optimierung der transistoranordnungen und isolationsmaterial die leckströme zu veringern, denn dann kann die vcore gesenkt werden und die Leistungsaufnahme wird geringer
 
@YforU
"zu den Yamhill-Projekt gerüchten.. selbst wenn 64 bit register integriert sein sollten und diese deaktiviert sind bzw diese nicht arbeiten würde der prozessor nicht mehr leistung aufnehmen. Denn wer auch nur ein bisl ahnung von halbleitertechnologie hat weiss, dass ein transinstor im ruhezustand keine stromaufnahme hat"

So ist es ! Beispiel NPN-Transistor : Auf der Kollektor-Emitter-Strecke fliest kein Strom und somit auch keine Verlustleistung wenn die Basis nicht offen ist, nicht durchgeschaltet, also der Basisstrom gleich 0 ist (abgesehen von Leckströmen von vielleicht einigen Mikroampere) Und der Basisstrom wird dort überall gleich 0 sein wenn die Schaltung nicht verwendet.
Durch deaktiverte Yamhill-Schaltkreise würde der Prozessor also sicher nicht mehr leistung aufnehmen.Das bei kleinen Strukturen die Leckströme steigen und das alleine das nun das Problem ist bei den zusätzlichen Transistoren von Yamhill und L2-Cache, mehr Tracecache,etc. kann meiner Meinung nach nicht alleine eine um soviel grössere TDPmax erklären.
Und ein Prescott mit 0,13µ ist wirklich auszuschliessen, dafür ist die Vcore mit 1.225V zu gering.
 
zu den leckströmen:
sicher die liegen immer nur im µA bereich nur bei ein
über 70mil transistoren addiert sich dass zu ner ganzen menge.
dann eine etwas höhere leistungsaufnahme durch die vergrösserung des caches und das meiste dürfte
wohl auf die wesentlich besser ausgelasteten executable units fallen. Dadurch steigt zwar die Pro/Mhz leistung der P4
architektur (dürfte doch an die 10% bringen) aber auch ungefähr im gleichem maße die Leistungsaufnahme. Das ist aber ein typisches problem der Netburst architektur. Die wurde extra entwickelt um hohe taktraten zu ermöglichen und jetzt steht intel vor dem problem, dass die p4s bei takterhöhungen nur noch schlecht skalieren.Deshalb wurde jetzt die effizienz der exec. units erhöt ---> cpu skaliert besser bei takterhöhungen mit dem negativem effekt, dass auch die leistungsaufnahme steigt.
 
sry hat was vergessen:
also ein prescott mit in 0,13µ mit 1,225v ist wohl absolut auszuschliesen. der bräuchte bei der verlustleistung 1,5v - 1,55
ich glaub aber auch, dass die 1,225v nur für die ersten modelle gillt denn das ist einfach schon verdammt viel
für transistoren, die in 0,09µ hergestellt werden.
was wieder auf probleme mit leckströmen schliesen lässt.
 
Zurück
Oben