News Nvidia stellt „Kal-El“ als Tegra 3 offiziell vor

Amok-Sepp schrieb:
@derGrimm

AMD hat Jahre lang gejammert, NVIDIA würde die Spieleentwickler bestechen und deshalb könne sich ihre ach so schöne Bullet-Engine nicht durchsetzen.
- link
Jetzt kommen schon seit Jahren auch kaum GPU-PhysX Spiele auf den Markt, sowie seit GTA 4 genau Null mit Bullet in irgendeiner Form und als AMD das dann erklären musste,
waren auf einmal die Spieleentwickler selber zu Faul für Bullet.
- Link

AMD ist ein Verein von Brunnenvergiftern.
Statt mit Leistung zuüberzeugen, jammern die in jeder Form, solange wie sie damit gut fahren.

Du hast wirklich eine verzerrte Wahrnehmung der Realität um es mild auszudrücken. Es wurde Kritik an der Art und Weise geäußert, wie PhysX, als ein marktverzerrendes propietäres Alleinstellungsmerkmal, etabliert werden sollte. Ohne Zuwendungen von Nvidia, von Bestechungen hat keiner gesprochen, hätten die Programmierer der einzelnen Studios gar kein Interesse gehabt PhysX zu implementieren. Diese Zuwendungen wurden nicht aus Nächstenliebe, sondern zur Absatzsteigerung der hauseigenen GPUs geleistet. AMD ging es vorrangig um die Etablierung offener Standards bzw. Programme, was für Entwickler und Kunden von Vorteil ist. Es ist nicht deren Schuld, wenn Programmierer keine Echtzeitphysikberechnungen in ihre Spiele implementieren wollen.

Propietäre "Standards" sowie Exklusivitäten in der Software führen, v.a. wenn die Nutzung der Funktionen hardwareabhängig ist oder gemacht wird, für Softwareentwickler sowie für Kunden in Sackgassen.

Nachtrag zum Video:
Ja, "toller" Vergleich. Unterschiedliche Betriebssysteme und Browser. Wie zügig würde der N270 unter Android werkeln? Tegra 2 ist und bleibt im Vergleich zu anderen ARM (Cortex A9)- und v.a. x86-Prozessoren dank eingeschränktem Funktionsumfang eine Schnecke.
 
Zuletzt bearbeitet:
Der Vergleich ist völlig legitim.
Es zählt ebend was hinten rauskommt.
Und da mag ein Atom auf dem Papier 10mal schneller sein, davon sieht man aber ebend nichts.
Wobei halt, doch beim Stromverbrauch, da zieht ein Atom 10mal mehr.

Was Physik angeht.
1. Deine persönlich werden Andeutungen kannst du stecken lassen.
2. Hat AMD hat es früher so dargestellt, dass es allgemein Interesse an GPU Beschleunigter Physik gäbe, und das sich das von ihnen angeblich unterstützte, freie Bullet nur nicht durchsetzen könnte, weil NVIDIA die Studios bezalht, statt Bullet lieber PhysX zunehmen.

Jetzt gesteht man, dass es nie ein Interesse an GPU Physik gab und wie du, kommt man immernoch mit dem Gerede vom "marktverzerrenden, propietären Alleinstellungsmerkmal".

Ohne NVIDIA gäbe es aber überhaupt keine GPU beschleunigte Physik.
NVIDIA schaft ihren Kunden nur einen optischen Mehrwert, nicht mehr und nicht weniger.

AMD hat dies aber schön scheinheilig zum Dreck werfen missbraucht.
Genau wie ihr peiliches Fermi-Bashvideo.
Wobei mich wundert das sie nach dem Bulli-Stromvernichter, das Teil immer noch online haben.
 
Ein web browsing vergleich ist natürlich die Referenz überhaupt, was Leistung angeht. Die verwendete Internetverbindung ist ja niemals auch nur annähernd ein limitierender Faktor...

Und dass Physx ein reines Marketinginstrument von NVidia ist, ist auch klar. Ageia hatte schon eine funktionierende Multi Threaded Version mit SSE2 Unterstützung, die aktuelle CPU Physx Variante nutzt aber nur einen Thread und x87 Code, NV ist hier also klar mehrere Schritte zurück gegangen, um ihr GPU Physx zu stärken.
Mit dem Satz
Ohne NVIDIA gäbe es aber überhaupt keine GPU beschleunigte Physik.
hast du aber natürlich recht. Denn ohne NV hätte man von den Effekten vergleichbare CPU Physik und die CPU würde nicht in aktuellen Spielen dauernd Däumchen drehen und darauf warten, dass sie mal wieder was machen soll, während die GraKa mit dem Rechnen nicht mehr nachkommt...
 
Ask-me schrieb:
Hast du einen Preisvergleich mit anderen Chips?

Nein in der ct' war nur die Rede von Tegra2 ~20$ und irgend einem Atom der
3-4 mal so teuer war. Das war aber noch im Frühjahr als Tegra2 neu war.
Die hatten für den Tegra2 aber auch keine offizielle Quelle und nur gesagt dass der eben ca so viel kosten soll.
Ich glaube die SoC Hersteller rücken da nicht so wirklich mit Preisen raus und verhandeln dann mit jedem Interessenten individuell je nach Stückzahl...

Laut https://www.computerbase.de/2011-10/komponenten-des-iphone-4s-kosten-188-us-dollar/ kostet der SoC im IP4S ja sogar nur 15$ - sofern mit Prozessor auch der ganze SoC gemeint ist.
Hier muss man aber wieder bedenken dass Apple natürlich gigantische Stückzahlen ordert und somit sicher einen deutlich besseren Preis bekommt als andere Hersteller.
 
@ Amok-Sepp:
Vergleiche durchführen kann jeder wie er möchte, aber bitte auf Grundlage einer objektiven Basis, die allerdings im Video aufgrund der Nutzung unterschiedlicher Betriebssysteme sowie Browser nicht gegeben ist. Android ist ein schlankes Betriebssystem für mobile Kleingeräte, dagegen benötigt WinXP deutlich mehr Systemressourcen.
Wie hoch ist denn die Leistungsaufnahme des Tegra 2 (oder 3) unter Volllast? Der Atom Z670 benötigt samt SM35 Chipsatz 3,75 Watt bei maximaler Auslastung.

Was ist mit meiner Andeutung? Habe ich Unrecht? Du interpretierst den Sachverhalt aus Deiner Sicht und zeichnest dabei ein nicht korrektes Bild bzgl. AMD. Den Rest habe ich bereits im anderen Kommentar erläutert. Übrigens hätte Nvidia auch über CUDA oder OpenCL BulletPhysics nutzen können.

Ohne NVIDIA gäbe es aber überhaupt keine GPU beschleunigte Physik.
Falsch! Ohne PhysX, das von Ageia entwickelt wurde, wäre das gar nicht möglich gewesen. Nvidia hat einfach nur Unternehmen aufgekauft.

Wobei mich wundert das sie nach dem Bulli-Stromvernichter, das Teil immer noch online haben.
Welche Programme bzw. Betriebsysteme im Desktopmarkt unterstützen BD sowie dessen XOP- und FMA4-Instruktionen?
 
Ich denke mal, so einen SoC darf man nicht bei Benchmarks mit desktop oder Mobil CPUs vergleichen, sondern wirklich nur bei realen Anwendungen.

Ich jedenfalls kann beim Tegra 3 eine Grafik sehen, die vorher höchstens durch Infinity Balde auf nem iPad 2 erreicht wurde. Und auch eine Grafik, die zumindest auf ähnlichem Niveau wie die aktuellen Konsolen ist.

Und das ist wirklich erstaunlich. Wenn ich dann sehe, wie viel Leistung ein Notebook braucht, um mir in Spielen eine Ähnliche Grafik zu bieten, und vor allem wie viel Akkuleistung dafür draufgeht, dann sieht man eindeutig, wie viel Leistung in dem Tegra steckt.

Hier vergleichen einige auch mit Atom. Dann will ich aber auch mal ein Spiel sehen, das auf ner Atom plattform mit so ner Grafik daherkommt. Theoretische benchmarks zeigen einfach nichts von der realen Anwendungsperformance und die ist trotz vermeintlich viel geringerer Leistung sehr hoch. Und genau darum gehts letzendlich.

Insgesamt ist die gebotene Leistung extrem, wenn man mit SoCs von vor 2-3 Jahren vergleicht. Während die Grafik zudem hier mit riesen Schritten Rchtung PC Grafik geht, stagniert der PC bereich fast vollständig.


Mich würde wirklich mal interessieren, was so ein ARM SoC theoretisch für ne Leistung hätte, wenn man ihm ne Leistungaufnahme von so ca. 50-100 Watt geben würde. Logisch gesehen müsste das alles in den Schatten stellen, wenn man sieht, was für ne Grafik mit so solche niedrigen Verbrauch erzielt wird. Da erscheint die X86 plattform in die zugehörigen Grafikkarten fast schon extrem ineffizient schleißlich wird die ~100 Fache Elektrische Leistung gebraucht.
 
Zuletzt bearbeitet von einem Moderator:
@Laggy: Ich kann dir nur zustimmen. Die Leistung ist einfach nur beeindruckend. Richtig interessant wird das aber erst mit Windows 8, wenn dann der Tegra 3 auch in Laptops verbaut werden kann und man die Laufzeit von Tablets auch in Laptops erreicht. :)

Grüße
 
Nvidia bezeichnet Tegra 3 als "PC-Class CPU" und sieht diesen, laut Werbeprosa, auf dem Leistungsniveau eines Core 2 Duo T7200 (siehe Kommentar #74). Deswegen ist ein Vergleich mit Desktop und Mobilprozessoren garnicht verkehrt. Linpack liefert eine gute Vergleichsbasis für die Leistung der FPU. Mit komplexer werdender Anwendungssoftware und Erweiterung der Einsatzbereiche wird eine fähige FPU immer wichtiger. Die des Tegra 3 wird im Linpack nicht mal an die eines einkernigen Atom heranreichen.

Um im Linpack das Leistungsniveau eines Core i7 2600k mit 92300 MFlops zu erreichen bedürfte es theoret. 540 Cortex A9 Zweikernprozessoren @ 1 GHz Taktfrequenz. Unter CPU-Last ist ein einziger Zweikerner mit einem guten Watt Leistungsaufnahme dabei. Soviel zur angeblichen Ineffizienz der x86-Prozessoren.

Nun mag es sein, dass ARM-Prozessoren momentan eine rasante Entwicklung erfahren, aber jedweder Leistungszuwachs, egal ob Rechen- oder Grafikleistung, wird durch eine höhere Leistungsaufnahme erkauft. Riesen Schritte in Richtung PC-Grafik sehe ich nicht. Ich schaue die bunten Bilder gern im Detail an. Mich reißt das nicht vom Hocker.
Die Ursache für Anwendungsgeschwindigkeit der ARM-Plattformen ist der hohe Optimierungsgrad der Software. Das könnte man bzgl. der x86-Systeme genauso handhaben, das kostet aber Zeit und Geld.

ARM-Prozessoren sind hervorragend für mobile Kleingeräte geeignet, für den Desktopsysteme oder Laptops eher (gar) nicht.

Der Vergleich techn. Daten zw. Tegra 2 und 3 ist auch interessant:
Tegra 2: 2 Cortex A9 Kerne @ 1,0 GHz, GPU mit 4 Kernen, 40nm Strukturgröße
Tegra 3: 4 Cortex A9 Kerne @ 1,3 GHz, 1 Cortex A9 @ 500 MHz, GPU mit 12 Kernen, 40nm Strukturgröße
Wird die max. Leistung des Tegra 3 abgerufen, wünsche ich den Nutzern viel (aber sehr kurzen) Spaß. Das dürfte bei vielen neuen Spielen der Fall sein, schließlich benötigt die ganze Effekthascherei Rechenleistung, und somit Energie.
 
Zuletzt bearbeitet:
Im Grunde hast du natürlich recht. Aber man muss sich nur mal vorstellen, welche Hardware man vor ein paar Jahren noch brauchte, um ein 1080p H.264 Video flüssig abzuspielen, während ein aktuller ARM SoC das mit Leichtigkeit schafft.

Genauso mit Spielen seht euch die Grafik von 2005 an. Die entspricht so ziemlich der von aktuellen Tablets. Jetzt gehts bei Tablets aber mit Leistungssprüngen von Verdoppelt, ver vierfacht oder beim iPad 2 mit versiebenfacht weiter...

Klar basiert vieles auf Hardwarebeschleunigung und Engine Optimierung. Solange das aber nicht im gleichen Maße auf anderen Plattformen getan wird, relativiert sich der theoretische Leistungsvorteil von z.B. PCs immer mehr. Sprich solange die Leistung nicht so gut ausgenutzt wird wie im mobil bereich, kann die theoretische Mehrleistung praktisch nicht genutzt werden und ist daher kein Vorteil.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben