News Nvidia kündigt Tegra K1 mit „192 Kernen“ an

Also einen Effizienzvergleich zwischen 2 Plattformen die in der Leistung so deutlich weit auseinander liegen habe ich auch noch nicht gesehen. Aber bei Computerforen kann man sich sicher sein, dass irgendein planloser so einen Schwachsinn irgendwann einmal versucht. Manche vergleichen ja auch idle-load Differenz Verbrauchswerte.
 
Skysnake schrieb:
Weil es ALUs sind und keine Cores.... Das läuft nach dem SIMD prinzip ab....

ALU+FPU. Das nennt sich dann CUDA Core und hat mit dem "Kern" einer CPU erstmal relativ wenig zu tun.
 
Nur um den Schwachsinn mal ad absurdum zu führen:
K1 und GTX 780 Ti => Relativer Vergleich ausgehend von K1
5045,8 GFlops / TDP (250W): 20,1832 GFlops/Watt
365 GFlops / TDP (5W*): 73 GFlops/Watt

Wir haben also 350% mehr Leistung pro Watt, gegenüber der selben Architektur wohlgemerkt (Basiert ja angeblich beides auf Kepler).

*Dann muss man ja noch bedenken, dass in den 5W noch 4 A15-Kerne stecken. Für die GPU bleiben also nur noch ~2.5W. Man konnte die Effizienz also um über 700% steigern! Innerhalb des selben Fertigungsprozesses und der selben Architektur.
Fazit:
Es gibt nun zwei Möglichkeiten:
1. (Sehr Wahrscheinlich, ausgehend von deiner Milchmädchenrechnung) NVidia belügt uns was die Effizienz angeht und in Wirklichkeit brauch das Ding unter Vollast deutlich mehr bzw. leistet deutlich weniger.
2. (Noch viel Wahrscheinlicher) Diese Milchmädchenrechnung hat mit der Realität einfach mal gar nichts zu tun und ist völliger Humbug.
 
Gotha229
und hast wohl den kompletten Verbrauch ohne Laufwerk ect abzuziehen

Spar dir das, ich hab das bereits geschrieben, aber Sotin ließt immer nur das was er lesen möchte.

Sontin
Der Unterschied zwischen uns zwei ist, ich finde auch Produkte von NV gut und bin fair genug, zu sagen ob etwas gut ist oder nicht.
Leider kommen von dir dann meist Beispiele die total verzerrt sind. Wenn es dann nicht passend ist, wird die Realität der Käuferschicht sogar total verzerrt.

Ich gebe dir mal ein Beispiel :
Nvidia Titan: Schneller als jede Konsole
Und jetzt, Tegra KX besser als jede "AMD" Konsole ?

Wenn das so wäre, wieso hat man vor Jahren/Monaten nicht den Tegra K1 statt AMD Jaguar/GCN genommen ? Eventuell nicht fertig ? Irgendwie blöd, denn dann hat AMD offensichtlich in kürzerer Zeit einen SoC designen/fertigen können, der nicht nur deutlich stärker ist sondern auch deutlich schneller am Mark war.
Und um dein "Effizienz" Beispiel mal etwas "objektiver" zu begutachten. Wir reden hier von 2 verschiedene Designs, aber offensichtlich schreckt das nicht vor Vergleiche ab. Der eine Prozessor ist ein low-power Chip und der andere ist offensichtlich ein "Performance" Chip. Es sind andere Anforderungen, auch wenn NV gerne was anderes übermitteln möchte, sollte NV erst mal die "Konsole" zeigen die den Erfolg der PS360 bricht. Mit Shield ist ihnen momentan nicht mal der Erfolg "Vita" geglückt. Und versteh mich nicht falsch, das streamen halte ich für klasse, denn selber spiele ich mit der WiiU gern off-TV und der Bildschirm ist sogar nur ca 6.2 (16:9) zoll groß ist.
Dass die PS4 APU in paar Jahren nicht mehr aktuell ist, ist völlig Banane. Die Wii hat sich Jahre lang trotz bescheidene Hardware gut verkauft und noch heute verkauft sie ordentlich an Software, ich sage mal "Just Dance 2014". Somit, selbst wenn ein Tegra in Jahren die PS4 überholen könnte, bedeutet das nicht dass eine PS4 keine Bedeutung mehr hätte. Ich kauf mir lieber eine Konsole mit der ich 5-10 Jahre ohne Probleme Software konsumieren kann, als jede 2 Jahre ein neues Tablet um Aktuell zu bleiben. So ein Teil hätte in meiner Auffassung mehr Nachteile als ein PC den ich dann selber günstig aufrüsten könnte. Und damit Tegra auch einen Erfolg wie eine Konsole haben kann, muss sie auch länger auf den Markt aktuell sein, als 2 Jahre. Denn hier sehe ich den Grund, wieso viele ein Tablet zwar als Spielersatz sehen, aber nicht als reine Konsole.

Naja, offensichtlich ist eher, NV hat den Deal mit Sony nicht geschafft, könnte wohl damit zusammenhängen, dass sie oft Tegra Statistiken gaben, die dann nicht eingehalten worden sind oder später als geplant auf den Markt kamen. Das hat nichts damit zu tun dass die Chips nicht gut sind, aber ich halte es dann schon für sehr weit hergeholt, den Tegra als bessern Konsolen Chip zu outen, obwohl er offensichtlich gerade mal bei einer Performance einer PS360 angekommen ist, wobei wir hier momentan immer noch von "Rohleistung" sprechen, was am Ende dann rauskommt ist wieder eine andere Frage, aber es wäre schon sehr bitter, wenn man aus dem Tegra, eine moderner Chip, dann nur ein Bruchteil an den Tag bringen könnte.

Aber ich bleibe dran, die APUs in den Konsolen, zu mindestens die PS4 APU kann ebenso einen moderneren Fertigungstechnik bekommen und die X86 jaguar Cores werden sicherlich mit Denver mithalten können. Interessant ist jedoch dass jener mit 64 ARM Architektur dann auf einmal nur mehr 2 Cores statt den 4 A15 Cores vorhanden ist und gefährlich, dass AMD mit dessen 64-Bit ARM Architektur (wobei beide lizenziert sind) sehr schnell dessen GCN ebenso mit ARM-Architektur knüpfen kann. Die Aussage dass man X86 und ARM knüpfen kann würde jene Aussage noch mal unterstreichen.
Na hoffentlich hat man dann mit Tegra gegen ein angeblichen Konsolen-Deal dann anfangs doch nicht das falsche Los gemacht, denn mit über 5 mio Konsolen APUs (ohne WiiU) und ca 10 mio verkaufen Konsolen GPUs (mit WiiU und ohne X360 und Wii) im Jahr 2013, bin ich gespannt ob AMD "kein Gewinn" gemacht hat.

Klar, die Zahlen klingen klein, wenn NV es schafft Tablets, besonders durch MS in Massen zu verkaufen ( übrigens gefällt mir das Surface, leider ist es für mich vom Geschmack noch zu teuer). Man kann es NV aber nur wünschen, wäre schön wenn etwas Bewegung in den Markt kommt.

//offtopic
Streamen
http://www.gamestar.de/hardware/konsolen/nintendo-wii-u/wii_u,484,3031432.html
Bin gespannt ob man über den Hack des WiiU Gamepad lesen wird.
 
Zuletzt bearbeitet:
die.foenfrisur schrieb:
ich bin ja der meinung, das wir langsam genug power in unseren smartphones haben und man sich langsam mal der akkulaufzeit widmen sollte.

wobei man dazu sagen muss, das der größte teil immernoch beim display verbraten wird.

mfg

Das ist ja kein entweder/oder!
Denkst du nur weil mehr "power" verbaut wird steht die Forschung überall anders still?^^
Die Firmen die an Akkutechnolgien forschen haben doch nichts mit Nvidia zutun das sind Firmen wie Panasonic oder Toshiba, Duracell (Procter&Gamble!) oder Philips und nicht Firmen wie Qualcomm oder Nvidia.
Was denkst du denn wie groß der Unterschied in der Laufzeit wäre wenn der SoC 50% weniger verbrauchen würde (50% das ist Riesig!)?
Prozentual natürlich riesig aber absolut gesehen von 1W auf 0,5W (Hausnummer!) ist dann nicht mehr viel. Dadurch würde dein Smartphone/Tablet vielleicht 10 Minuten länger laufen am Tag.
 
bl!nk schrieb:
Beim Marketing verzehrt JEDER
Leute das war jetzt dreimal hintereinander der gleiche Fehler, VERZERRT heißt da Wort, da wird nichts gegessen ;)

Back to topic:
Ist doch gut, dass es im mobilen Bereich so weiter geht. Ich bezweifle eh, dass wir in 10-20 Jahren alle noch richtige PCs haben, für den Otto Normalverbraucher ist so ein Teil doch im Prinzip auch viel zu komplex. Die Entwicklung geht doch komplett in Richtung smart. Würde mich nicht wundern, wenn wir später mal über Hologramme telefonieren :D
 
Skysnake schrieb:
Huang vergleicht CPU-Cores mit GPU-ALUs... das kann man schon fast nicht mehr als Apfel-Birnen-Vergleich bezeichnen, so weit ist das auseinander.

Gibt irgendjemand was darauf, was Huang von sich gibt? Der Mann ersetz doch locker drei Föhne, wenn er nur den Mund aufmacht.

BTT: Es wurde aber auch Zeit, daß ausgerechnet der GPU-Spezialist Nvidia nicht mehr GPU-Technik von vor 10 Jahren in seine SoCs einbaut!
Und der kleine CPU-Nerd in mir freut sich auf Nvidias eigene CPU-Design im Herbst - wenn Apple dann seine zweite Generation ARMv8-CPU rausbringt und Qualcomm ebenfalls sein eigenes Design in die Waagschale wirft. Daß Samsung dieses Jahr noch zu Potte kommt, wurde ja schon angezweifelt...
 
Rubikalubi schrieb:
Back to topic:
Ist doch gut, dass es im mobilen Bereich so weiter geht. Ich bezweifle eh, dass wir in 10-20 Jahren alle noch richtige PCs haben, für den Otto Normalverbraucher ist so ein Teil doch im Prinzip auch viel zu komplex. Die Entwicklung geht doch komplett in Richtung smart. Würde mich nicht wundern, wenn wir später mal über Hologramme telefonieren :D

Wäre sehr zu begrüßen, wenn man anstatt nem großen Desktop-PC nur ein Tablet rumliegen hätte und da alles anschließen kann. Aber ich denke, dass in ein Tablet "einfach nicht genug reinpasst" um an die dann vorhandene Desktop-PC Leistung ranzukommen. So Sachen wie man jetzt auf Konsolen spielen kann ist dann sicher möglich, aber bis dahin wachsen die Konsolen auch wieder...
Vielleicht etabliert sich da noch eine Art Hardware, die aufs Zocken ausgelegt ist, aber das PC-Gaming kann da eben nicht ersetzt werden.

pipip schrieb:
Gotha229

Spar dir das,[...]

Dafür ist es ganz offensichtlich zu spät ;)
 
Zuletzt bearbeitet:
Gotha229
Die Tablets haben in Zukunft sicherlich genug Potential. AMD macht da schon einen richtigen Schritt und wir werden es auch bei NV und anderen Anbieter sehen. Docking Station sogar in Monitore integriert, ermöglichen bei Bedarf das Tablet einfach anzudocken und das Tablet zum Desktop-Ersatz zu machen.
Das momentane Argument bei Surface ist sogar nicht mal die Technik sondern eher "World". Denn das lässt sich in der Masse meist sogar besser vermarkten als das Surface selbst.
Android wird sich in Zukunft sicherlich im Interface noch mal ändern und Windwos könnte auch wieder an Bedeutung finden. Aber ich kann mir gut vorstellen dass man wenn man ein Tablet + Monitor hat, sogar über ein direkt Wlan oder ähnliches verbindet, das Tablet weiter zur Navigation verwendet wird und Apps dann zusätzlich am Desktop öffnen kann und dank normaler Tastatur, eine Tablet-Monitor Kombie ausgiebig als Office Rechner nutzen kann. Dann kommt auch mehr Bedeutung auf die GPU zu, die meist wohl stärker sein werden als die verbauten CPU-Cores und somit HSA oder gpgpu noch wichtiger werden wird. Sogar NV gibt der GPU mehr Bedeutung als deren CPU-Design.
 
die.foenfrisur schrieb:
ich bin ja der meinung, das wir langsam genug power in unseren smartphones haben und man sich langsam mal der akkulaufzeit widmen sollte.

wobei man dazu sagen muss, das der größte teil immernoch beim display verbraten wird.

mfg


durch immer leistungsfähigere komponenten kann die akku laufzeit verlängert werden da diese komponenten aufgaben schneller bewältigen und dann besser energie sparen.

man muss als mal etwas weiter denken als der strahl des eigenen urins reicht.
ich bin froh dass die jungs in der entwicklung das tun
 
Sontin schrieb:
Veräppelt werden sie bei AMD, wo ein 2 Kerner schön als 4 Kerner angepriesen wird.
wenn man keine ahnung hat, einfach mal...
Ergänzung ()

Sontin schrieb:
Es ist offensichtlich, dass Tegra K1 von der Effizient in einer Liga spielt, die Lichtjahre von AMD entfernt ist.
du hast einfach keine ahnung, wie kost du eigentlich auf diesen müll?
 
Artikel-Update: Epic hat in einem Video zum Tegra K1 erste Eindrücke aus in Echtzeit auf dem SoC berechneten Spielumgebungen auf Basis der Unreal-4-Engine gegeben. Über die eingesetzte Hardware und Rahmenbedingungen wie die Auflösung liegen keine Informationen vor.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Ein weiteres Video zeigt darüber hinaus Sequenzen aus den Spielen „Anomaly 2,” „Trine 2” und „Serious Sam 3“ – die Rahmenbedingungen und Auflösungen sind auch in diesem Fall nicht bekannt.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
Sollte es nicht zu extremen Microrucklern kommen, bei der Vielzahl von Kernen, die für den Bildaufbau vorhanden sind? Es sind doch nicht alle stellen beim zu berechnenden Bild gleich "schwer". Kommt hier dann eine Art SLI zum Einsatz?
Ecki
 
Na ja, PC System werden sicherlich nie vom Markt verschwinden.

Während ein Tablet oder Smartphone max. 5 Watt Last Abwärme bewältigen kann, geht dies beim Desktop problemlos auf über 1000 oder gar mehr. Hier haben wir also 200 mal mehr Leistung, wenn die Energieeffizenz gleichbleibend verläuft!

Aber es ist doch schön das die Schritte so groß sind im Smartphone und Tablet Sektor. Ich denke das hängt auch damit zusammen, dass die Entwicklung dort sehr lange vernachlässigt wurde, da dieser Markt quasi nicht vorhanden war. Seit es Smartphones gibt fließen viele Milliarden an Investitionen in diesen Bereich und verhelfen den SoCs damit gegenüber den Desktop PCs aufzuholen. Ich bin mir aber sicher das diese Entwicklung langsam abflacht und in 3-4 Jahren die selben Schritte von ca. 10-15% wie im Desktop Segment machen wird. Das hängt auch damit zusammen das die Fertigungsprozesse extrem veraltete waren. Apple ändert den Prozess bis jetzt jedes Jahr! Das ist aber in spätestens 2 Jahren nicht mehr möglich. Sie können jetzt von 28nm noch auf 20nm gehen, einem Prozess der dann bereits sehr jung ist und spätestens dann müssen sie schon die Risikoproduktion nehmen, um noch mal auf 16nm FinFETs gehen zu können, und das ist eigentlich nicht Apples Stil. Ab da wird es dann so wie im Desktop Bereich etwa alle 2 Jahre eine Verkleinerung der Strukturen geben. Der Hype wird dann langsam nachlassen und der Markt ist gesättigt, die Investionen werden langsam sinken und sobald jedes Smartphone 4K Displays hat macht es auch keinen großen Sinn mehr viel zu ändern, jedenfalls im Display Bereich.
 
Vor einer Woche wurde diese Techdemo gezeigt, und fand sie eigentlich nicht soo berauschend,
wenn man nun weiss das es für den Tegra K1 chip war fällt das Video in ein ganz anderes Licht.

https://www.youtube.com/watch?v=xxZwhch5OO8
Unreal Engine 4: Video zeigt Pre-Alpha-Test [HD]
 
Jetzt hatte ich das Note 2 und bekomme morgen das Note 3.
und schon gibts wieder ganz neue Sachen.
aber gut das ist in den Branche eh so
deshalb lass ichs halt mich darüber zu ärgern.
 
@Ecki815

Mit kernen sind vermutlich nicht die "klassischen" kerne gemeint sondern die ALUs davon hat eine normale GTX780 2880 stück ;)

Bitte korrigiert mich falls ich mich irre!

Unreal-4-Engine was soll man dazu sagen ?! 1000 Tech demos aber noch kein Game in freier Wildbahn oder ? Daher sind diese Techdemos für mich keinen Cent wert.
 
Ecki815 schrieb:
Sollte es nicht zu extremen Microrucklern kommen, bei der Vielzahl von Kernen, die für den Bildaufbau vorhanden sind? Es sind doch nicht alle stellen beim zu berechnenden Bild gleich "schwer". Kommt hier dann eine Art SLI zum Einsatz?
Ecki

In deiner Grafikkarte kommt es ja auch nicht zu Microrucklern, oder?
Das sind ja keine cores im Sinne eines CPU cores sondern es sind im Prinzip Vec4 ALUs also Pixel oder Vertexshader.

Der Rechnung von Nvidia nach hätte Titan 2688 Kerne! ^^

@TheLordofWar:
Sind es bei einer 780 nicht "nur" 2304?

@UE4 Video:
Kommt mir alles sehr Polygon arm vor!
 
Zuletzt bearbeitet:
Sontin schrieb:
Veräppelt werden sie bei AMD, wo ein 2 Kerner schön als 4 Kerner angepriesen wird.

Ein Modul hat 2 Integer Kerne (Cores) und eine FPU (Fließkomma). Ein Prozessor mit 2 Modulen ist damit ein vollwertiger 4 Kerner. In der guten alten Zeit war eine FPU ein Chip der wie die CPU aufs Mainboard gesteckt wurde. Erst später wurde er integriert. Bei ARM SoCs darfst du auch heute nicht per se von einer FPU ausgehen.
 
Zurück
Oben