News Quartalszahlen: Nvidia mit Pascal und Deep Learning zum Rekordquartal

99,8% aller Beiträge hier sind Off Topic.
@Volker Warum greift @computerbase da kein Admin ein und kippt alles ins Aquarium.
Hält @CB sich jetzt nicht mehr an seine Forenregeln.

http://investor.nvidia.com/common/d...43992D45D9&filename=Q2FY17_CFO_Commentary.pdf hier gibt es nochmal ein paar Kennzahlen, die vertikale Marktintegration mit der Founders Edition macht sich bezahlt. Mehr Wertschöpfung so das trotz gestiegenen Kosten für F&E dwr Rohertrag gleich bleibt.
 
OdinHades schrieb:
Aus unternehmerischer Sicht alles richtig gemacht. Die Margen dürften sich mehr und mehr den Sphären von Apple nähern.

Im Gegensatz zu Nvidia landet bei Apple im absurd hohen Preisbereich aber bereits ein gewaltiger Anteil in Marketing (teils gut die Hälfte, siehe iPhone, Beats by Dre - bei denen auch schon vor Apples Kauf^^) und *trotzdem* macht Apple einen großen Gewinn mit den Dingern :D
Bei Nvidia tippe Ich da eher auf 10-15%... wenn überhaupt.
 
Die Fragerunde ist recht interessiert gewesen die im Anschluss noch durchgeführt wurde.
http://edge.media-server.com/m/p/n6phuy56 da gibt es den zum Anhören oder auf seaking Alpha zum mitlesen. Aber da es maschinelle spwach to Text ist sind im Text ein paar Fehler wie z.b. 60nm Note statt 16nm

NVIDIA (NVDA) Jen-Hsun Huang on Q2 2017 Results - Earnings Call Transcript https://seekingalpha.com/article/3999057?source=ansh $NVDA

Auch ist klar das jedes Unternehmen die Kosten die sie mit der Entwicklung von einem Produkt oder Verfahren haben soweit es der Bilanzpolitik entspricht vollständig aktiviert. Ich würde gerne mehr zahlen haben die NV da intagible Assets abbildet.
Ergänzung ()

@Tpcb welche Erkenntnisse oder Analysen hast du denn zum Anual Report abgegeben. Ich sehe in keinem deiner Beiträge hier etwas was sich explizit auf das Thema "Q2 -2017 Financial statement von Nvidia" bezieht. Immer nur das Kindergarten Fanboy gebashe was in jedem threat entsteht wenn in der Überschrift Nvidia, AMD oder Intel steht und damit klar OT ist. Lassen wir doch die Admins entscheiden welche Beiträge ins Aquarium kommen...
 
Zuletzt bearbeitet:
scryed schrieb:
also ich persönlich gebe gerne viel geld aus für jeden krämpel auch grakas :D aber was nv hier abzieht ist reine verarsche .........

Nur gut, dass du uns adäquat über die Heimtücke von NVIDIA aufgeklärt hast. Die Problematik liegt aber gar nicht primär an NVIDIA, denn jedes Unternehmen möchte letztendlich Gewinne erwirtschaften. Da ist es nur natürlich, die Margen, die am Markt realisierbar sind, auch zu veranschlagen.
Die Hauptproblematik liegt bei den Kunden. Im professionellen Bereich gibt es häufig tatsächlich keine Alternative, für Endkunden aber schon. Dennoch gibt es haufenweise Fanboys oder eben Dödel, die für die letzten 10% Leistung 1000+ Euro bezahlen.


scryed schrieb:
die aktuelle titan so teuer zu machen und dann mit der ausrede kommen naja is ja nicht für gamer sondern für diesen deep learning scheiß ................

Wo ist da genau die Problematik?
Die professionelle Sparte hat enorme Gewinnmargen und sorgt für einen erheblichen Teil des Umsatzes. Warum sollte man einer Titan also nicht das "GeForce" rauben und sie explizit als Einstieg für das professionelle Segment vorsehen und nicht mehr primär für Gamer?
Für Gamer gab es doch ohnehin immer irgendwann die Ti-Karten.

Unabhängig davon ist Deep Learning kein "scheiß", sondern bis dato eine der wichtigsten Innovationen im 21. Jahrhundert. Nur durch Deep Learning sind KIs in der letzten Zeit derart mächtig geworden, um moderne Suchmaschinen, Robotik, selbstfahrende Autos u.v.m. zu ermöglichen. Die größten Revolutionen stehen noch aus, aber schon jetzt ist absolut absehbar, dass dies fast jede Branche in der ganzen Wirtschaft in den nächsten Jahren/Jahrzehnten stark verändern wird.

scryed schrieb:
ach und für was sind dann die quadro karten gedacht ?! , kaufe weiterhin deren karten aber ab jetzt nur noch die vorjahres karten ..........

Quadros sind für Workstations gedacht und zählen zum ausgewachsenen Profisegment. Unabhängig davon findet man derartige Karten selten in Machine Learning / Artificial Intelligence Umfeldern oder generell in Wissenschaft/Forschung/...
Quadro-Karten werden eher für Rendering / CAD / usw. genutzt.
Für Entwicklung/Forschung/Simulation usw. oder eben der täglichen Anwendung, also die Bereiche in den Deep Learning Anwendung findet, hat man im professionellen Segment eher Tesla-Karten bzw. ganze Cluster mit Tesla-Karten. D.h. größere Sachen werden von Tesla-Karten, meist in Clustern, erledigt.

Für kleinere Experimente wiederum benötigt man keine Quadro im Deep Learning. Hier zählt sehr häufig einfach nur ausreichender Speicher und eine hohe SP-Leistung. Deshalb haben viele Workstations für Deep Learning und Ähnliches GTX-Karten oder eben eine Titan: deutlich billiger als eine Quadro und erfüllt die Anforderungen für kleinere Experimente absolut.
 
Krautmaster schrieb:
419€ ist nicht günstig aber wenn man den Markt betrachtet okay.

Für ein einigermaßen vernünftiges (Nicht-Billigst-) Custom-Modell musst Du aber leider immer noch ca. 460 Euro berappen (bspw. die G1 Gaming von GigaByte oder die einfache GS von Gainward), damit ist man immer noch sehr weit entfernt von den damals vollmundig angekündigten 379US$. Die Billigst-Gainward oder KFA2-Karten für bis zu 429 Euro würde ich jedenfalls nicht erwägen, wenn ich denn soviel für eine GPU mit mittel- bis langfristiger Nutzungs-Ausrichtung hinblättere.

Insgesamt ist die GTX 1070 natürlich immer noch mit Abstand die interessanteste nVidia karte derzeit, denn die GTX 1080 packt eben die 60fps in UHD jetzt schon nicht durch die Bank und ist für WQHD leistungstechnisch doch etwas zu hoch angesetzt (und damit zu teuer), da man mit einer GTX 1070 die 4 Jahre auch schaffen könnte (es sei denn der Speicher wird knapp, aber das kann man momentan nur schwer vorher sehen).

Die GTX 1060 ist im Vergleich für das Gebotene (was wohl vermutlich gerade einmal 2 Jahre ausreichen wird, Stichwort Speicher) dann zu teuer, aber insgesamt kommt es wohl darauf an wie lange man seine Grafikkarte nutzen will bzw. wie regelmäßig man bereit ist aufzurüsten.

Ansonsten (zum eigentlichen Thema), die übliche Lobhudelei und Stichelei/Propaganda einiger HardCore-nVidia Jünger hier im Thread passend zur Meldung, wenn's denen Spaß macht ... dadurch wird das Unternehmen selbst bzw. dessen Kundenpolitik auch nicht sympathischer für neutrale Betrachter.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Eine 1070 macht bei FHD keinen Sinn, aktuelle Karten sind für 4K bestimmt. Willst du ausschließlich FHD spielen greifst du zu einer RX 480 oder GTX 1060.

Tellerrand und so. Es gibt auch Leute, die gerne in FullHD bei 144Hz Spielen, und da reicht eine 1060 mit sicherheit nicht aus. Da wird es je nach Spiel sogar mit einer 1070 bzw. 1080 knapp. ;)

Ich würde sogar soweit gehen und die Titan X (Pascal) als erste richtige Full HD Karte bezeichen, welche fast immer 144Hz Bildwiederholrate schafft. Von vollwertigen 4K Gaming Karten sind wir noch einige Jahre entfernt. ;)
 
Nach dem erfolgreichen Launch der 1070/1080 zu erwarten. Jetzt kommen allerdings wieder alle Hater aus dem Keller und müssen alles schlecht reden. In meinen Augen verdient es NV dieses mal. Wenn AMD das gleiche mit Vega gelingt ( was wünscheswert wäre, die Entwicklung soll ja voran gehen ;) ) ist natürlich alles in Ordnung.

Und zu den Preisen kann ich nur sagen das ich sie noch in Ordnung finde. Wer nicht bereit ist so viel Geld auszugeben kauft sich halt ne preiswertere Karte und gut ist. Es gibt noch viele andere Hobbys die eindeutig mehr Geld verschlingen als alle 2 Jahre ~600-800€ für ne neue Grafikkarte und alle 4-5 Jahre ~1000-1500€ für die restlichen Komponenten. Wenn man sich mit niedrigeren Details anfreunden kann dann geht das ganze natürlich noch günstiger. Das scheinen aber viele zu vergessen.

@Chismon
warum sollte die GTX 1080 für WQHD zu hoch angesetzt sein? Das kommt ganz auf die Details an. mit den richtigen Einstellung zwingt man die 1080 auch bei Full HD in die Knie.
 
Zuletzt bearbeitet:
Crimson, wenn AMD nicht das Speichermanagement verbessert können sich die 8GB vielleicht kaum oder nicht besser als die 6GB schlagen. Sowohl bei den 4 als auch insbesondere bei den 2GB Karten holt Nvidia aktuell offensichtlich deutlich mehr aus dem verfügbaren Speicher raus.

Wenn dann wird die GTX 1060 eher relativ gesehen verlieren wenn AMD die höhere Rohleistung nach und nach umgesetzt bekommt, zb durch die neuen API. Wie schnell da die Adaptionsrate ist... Abwarten.
 
Ich setze darauf, dass AMD mit Vega die Leistung des oberen Mittelfeldes und High end für weniger Geld rausbringt. Von mir aus dann ein bisschen ineffizienter. Hab mir jetzt erst einen ultrateuren Monitor mit Freesync geholt und will den noch ne Weile behalten.
 
YY247 schrieb:
warum sollte die GTX 1080 für WQHD zu hoch angesetzt sein? Das kommt ganz auf die Details an. mit den richtigen Einstellung zwingt man die 1080 auch bei Full HD in die Knie.

Ja, ich bin mir bewusst, dass es auch die 120+ Hz Ego-Shooter Fraktion gibt (das ist ja nicht der Normalfall bzw. Durchschnitts-Käufer), aber allgemein werden die GPUs ja derzeit als ausreichend für eine Auflösung (sei es Full-HD/1080p, WQHD/1440p oder UHD/2160p) definiert, wenn bei hohen-ultra Details 60fps durch die Bank erreicht werden können, und das ist aktuell in Full-HD mit einer RX470/480 oder GTX1060 möglich, in WQHD braucht man schon eine GTX1070/1080 und für UHD müsste es schon mindestens die neue Titan X (rev.2) sein (oder ein SLI/CF Verbund bzw. eine Radeon Duo Pro, wobei diese natürlich auch limitiert/eingeschränkt sind durch Vorhandensein von brauchbaren Profilen und Skalierung).

Das ist bei den Test-Empfehlungen in Hardware-Magazinen/-Seiten jedenfalls so Gang und Gäbe (siehe z.B. diese RX 470 Empfehlung auf Guru3D primär für Full-HD unter "Who Would The Radeon RX 470 Be Best Suited For?" oder im Falle der GTX 1070 bis zu WQHD) in der "Concluding" Sektion, aber natürlich gibt es da immer einen gewissen Spielraum und nicht die Einstellungen (Qualität, AA, etc.), daher schrieb ich ja hohe bis ultra Details, zumal die Spieletitel eben nicht alle gleich gestrickt/ausgestattet sind ;).
 
Zuletzt bearbeitet:
flappes schrieb:
Warum kaufen jetzt auf einemal soviel Leute mehr eine 1070 oder 1080? Sind die alten Karten alle Kaputt gegangen, oder andersherum, hat man in der Vergangenheit denn soviele Karten verkauft?

Weil die GTX 670 für meine jetzt 3440x1440 UWQHD 21:9 nicht mehr ausreichte und man sich so alle 4-5 Jahre ja mal was gönnen kann, was die gpu angeht. :-)

Ganz nebenbei is das einfach ein Traum für mich, wie flüssig Top Titel mit guten Grafikeinstellungen laufen.
Auf 21:9 nochmal doppelt so toll.

Bin sehr zufrieden.
Dazu noch recht leise und kühl(immer unter 70 C°) bei immer über 2GHz unter Last, das macht einfach gute Laune. :daumen: :D
 
Zuletzt bearbeitet:
ChrisMK72 schrieb:
Weil die GTX 670 für meine jetzt 3440x1440 UWQHD 21:9 nicht mehr ausreichte und man sich so alle 4-5 Jahre ja mal was gönnen kann, was die gpu angeht. :-)

Komisch. Ich lese hier doch immer dass man als nVidia Kunde jedes Jahr ne neue Karte kaufen muss, weil die in der Performance über die Zeit nicht mehr so stark zulegen, bzw. sogar langsamer werden und viel zu wenig Speicher haben. :lol:

Spaß beiseite. Ist bei mir genau dasselbe. Bin von 670 auf 1070 gegangen und total zufrieden mit dem was mir da geboten wird. Die frühstückt im Moment einfach so alles weg was ich ihr vorwerfe. Wird sicherlich ganz locker 4 Jahre reichen.
 
Auf die 1070 zu wechseln ist Preis-/Leistungstechnisch natürlich noch mal besser, als auf die 1080.
Stimme Dir da voll zu.

Hatte nur diesmal die Extra-Taler glücklicherweise über und hab mir den Luxus mal gegönnt. ;-)

Viel Spaß mit der 1070 !
Klasse Teil.

P.s.: Hoffe auch wieder auf 4 Jahre, mit meiner. :-)
 
Buttermilch schrieb:
Die Fragerunde ist recht interessiert gewesen die im Anschluss noch durchgeführt wurde.
http://edge.media-server.com/m/p/n6phuy56 da gibt es den zum Anhören oder auf seaking Alpha zum mitlesen. Aber da es maschinelle spwach to Text ist sind im Text ein paar Fehler wie z.b. 60nm Note statt 16nm

NVIDIA (NVDA) Jen-Hsun Huang on Q2 2017 Results - Earnings Call Transcript https://seekingalpha.com/article/3999057?source=ansh $NVDA...
Hier mal eine öffentliche Version der Mitschrift: http://finance.yahoo.com/news/edited-transcript-nvda-earnings-conference-053047544.html

Wenn man sich das so durchliest, kommt man zu dem Fazit, das die Gaming-Fähigkeiten der Pascal-Chips von Nvidia nur noch als "Abfallprodukt" angesehen werden. Von Maxwell zu Pascall hat man zwar die Leistung verdoppelt, aber eben nur über das Fertigungsverfahren.

Quasi die ganze Stunde redet man nur darüber, das Pascal ausschließlich für den Professionellen Bereich entwickelt wurde und da angeblich auch 10x schneller ist als Maxwell. Nahezu alle Optimierungen scheinen den Bereich zu betreffen. Den Gaming-Bereich hatte man da, so scheint es, gar nicht mehr auf dem Schirm...

Es liest sich so, als ob NVIDIA in Zukunft das gesamte Wachtum und auch 90% der Gewinne aus dem Profi-Bereich erwartet. AMD wird nicht mal mehr als echter Wettbewerber gesehen. In nahezu jedem Bereich (der professionellen Lösungen) sieht man Stromverbrauch zu Leistung als das Kaufargument Nummer 1 an. Dort kann aktuell wohl nur noch ARM ernsthaft konkurrieren. Weder Intel, noch AMD sieht man dort als Gefahr...
 
Zuletzt bearbeitet:
Nun, der Analyst und Anleger ist an Wachstumsmärkten interessiert. Deep lerning und VR sind neue Felder die NV besetzten möchte und neue Umsatzerlöse zu erzielen. Pc gaming ist Gründe ein gesättigtea Segment, mehr Marktanteile kann NV da nicht erzielen, die Kosten fur Fertigung steigen und nur mit einer Anpassung der Preisstategie bzw alles aus einer Hand (founders edition) können sie ihren Rohertrag halten. Da musst du als CFO oder CEO neue Märkte finden und das tun sie ja mit SoC Lösungen für den automotive Sektor und professionelle Losungen zu Big Data, deep lerning und VR.
Der Präsident von Borussia Dortmund redet auch nicht über den erfolgreichen Absatz an Merchandising und Verkauf von Dauerkarten sondern über die Zukunft mit Champions League und Meisterschaft. Da wird das Geld verdient nicht mit Trikots von Götze und co.

http://www.datacenter-insider.de/der-energieverbrauch-von-rechenzentren-steigt-und-steigt-a-472958/
Energie (incl notreserve) und Kühlung sind im Datacenter teuer und machen die Planung aufwändig wenn da tausende Cluster stehen. Wäre doch toll wenn statt der heißwasser Kühlung es auch wieder alles per Luft geht, keine 45.000kW zieht (green IT) und auf die gleiche Fläche mehr Racks, Blades und GFlop pro m³ l Watt gestellt werden können.
 
Zuletzt bearbeitet:
BernardSheyan schrieb:
War annerkannterweise die damals Beste und Schnellste Karte.

Ja und?

Es gibt mit jeder neuen Generation einen neue "Beste und Schnellste Karte".

ZB. ist die 980ti auch knapp 50 Prozent schneller als eine 780.

Warum nun unbedingt seit der 8800GTX nichts mehr so legendär gut war wie die 1070 ist für mich noch immer nicht so klar.
Vorallem im Anbetracht der Tatsache das die 8800gtx in dem CB Benchmarks weiter oben nur knapp 40 Prozent schneller ist als die Vorgänger 7900gtx.

Die 1070 mag eine nette Karte sein aber jetzt beruhigt euch mal ein bißchen mit eurem Hype :D
 
DocWindows schrieb:
Wieder mal sehr gute Zahlen, die man angesichts der neuen Pascal Produkte und der Profisparte aber auch erwarten konnte. Wird im nächsten Quartal vielleicht etwas weniger, weil der große Run abflachen könnte, aber sollte immer noch gut sein.
Bin mal gespannt ob sich mit Erscheinen von Vega noch etwas am Trend ändert. So richtig glauben tu ich es aber nicht.

Laut dem Ausblick von Nvidia wird es eher deutlich mehr. Ich denke auch das es noch besser wird, und zwar weil aktuell die Nachfrage das Angebot übersteigt. Im Augst sollen die Kapazitäten bei TSMC deutlich steigen für Nvidia. Ich denke da geht noch mehr, insbesondere wegen der mobilen Ableger.
 
Zurück
Oben