Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSnapdragon 675: Qualcomms erstes Cortex-A76-SoC wird in 11LPP gefertigt
Qualcomms Angebot an Mobile Platforms der 600er Baureihe wird zum 4G/5G Summit mit dem Snapdragon 675 um eine hinsichtlich Gaming-Leistung, Kamera-Features und KI-Fähigkeiten optimierte Variante ergänzt. Die Unterschiede zum Snapdragon 670 sind größer, als der Name vermuten lässt: Der Snapdragon 8150 wirft seine Schatten voraus.
Der Kunde denkt sich gar nichts, da er davon absolut 0 Ahnung hat. Der kauft ein Smartphone nach Optik und wenn überhaupt nach 1,2 Testergebnissen in denen stehen wird "durchschnittliche Leistung, durchschnittliches Display, tolle Kamera" und zackt ist es eingetütet. Die 5 Leute hier im Internet auf den entsprechenden plattformen für Elektronik sind nicht repräsentativ.
Testergebnissen in denen stehen wird "durchschnittliche Leistung, durchschnittliches Display, tolle Kamera" und zackt ist es eingetütet. Die 5 Leute hier im Internet auf den entsprechenden plattformen für Elektronik sind nicht repräsentativ.
Ich denke es ist ein Trend zu erkennen, dass doch immer mehr sich auch zumindest etwas mit der Technik auseinander setzen. Sieht man auch an den YouTube-Channels ganz gut. Ist natürlich immer noch eine klare Minderheit, aber verachten sollte man die auch nicht mMn.
@topic: Schön, dass wir jetzt so langsam immer weniger A57 Kerne im "Performance"-Cluster sehen.
@XimiGin, denke die A57 laufen dennoch ne Nummer sparsamer. Solange sowol A72/73/76 mit diesen lowpower Kernen gepaart werden, erkenne ich da einen Sinn.
8 Kerne A57 erschließen sich mir aber nicht so ganz. Glaube auch nicht, dass Android da so gut im Multicore skaliert. Mal abgesehen von Benchmarks.
Kann das Teil wenigstens 4k oder 1080p60 elektronisch stabilisieren?
Ich kann das zwar auch auf mein Nokia 7+ anschalten aber es ruckelt wie die Hölle.
Ich finde die Leistung des 660 schon meistens gut. Aber wenn man ein iPhone, OnePlus 6 oder ein P20 in die Hand nimmt, merke ich es immens.
Stärkt meine Annahme das die RT Cores nur ARM Cores sind, die halt die CPU entlasten bei Raytracing. Damit hat nvidia ja auch viel Erfahrung, wenn jetzt aber ARM Produkte für sowas optimiert werden, bekommt das einen faden Beigeschmack. Immerhin verlangt nvidia Unsummen für seine Hardware. Und man sieht ja auch wie schlecht die Performance ist, bei RT. Und das DLSS kann ein ARM Core auch, siehe die ganze AI Integration von Qualcomm und Mediatek ohne NPU. Ist ja nix weiter als upscaling.
wie gesagt, big chips kann man in arm architektur auch bauen. das alte risc design in harvard-architektur (wie beim 68030/40 z.b.) ist halt deutlich schneller als die heutige von neumann architiektur in den jetzigen "normalen" cpus.
Wieso das? Es würde keinen Sinn machen eine universale CPU zur Beschleunigung einer spezifischen Berechnung zu verwenden. Eine CPU ist im Grunde genau das Gegenteil von dem, was man da braucht. Davon ab würden ARM Kerne wohl zu viel Chipplatz kosten. Ein ARM kern ist etwa 5mm² groß. Das wäre bei einer 2080Ti ca. 50% der Chipfläche Um das zu realisieren müssten de Shader und Tensor Cores massiv kleiner sein, als bei einer Titan V oder auch Pascal, was ich mir nicht wirklich vorstellen kann. Zudem würde das sehr energie ineffizient sein.
Bully|Ossi schrieb:
Und das DLSS kann ein ARM Core auch, siehe die ganze AI Integration von Qualcomm und Mediatek ohne NPU. Ist ja nix weiter als upscaling.
AI ist auch nicht gleich AI. Du kannst auch mit klassischen Grafikkarten und CPUs AI Berechnungen durchführen. Gerade im SoC Bereich ist es aber größtenteils ein Buzzword um auf Apple zu reagieren. Sieht man ja auch ganz gut. Jetzt werden nach und nach die SoCs durch NPUs erweitert, damit man nicht mehr auf die lahme CPU / GPU zurückgreifen muss.
ARM kann das sicherlich, aber die bekannten ARM Core Designs sind dafür sehr ineffizient. Zumal wenn die Tensor cores auch ARM Kerne wären, wäre der Chip noch viel viel größer.
ein risc design (wenig befehle, nicht ganz leicht zu programmieren) für stark optimierte (verlötete) befehle zu benutzen, sollte funktionieren, ergibt aber keinen sinn.
mann stelle sich die tensor und rt cores wie ein "mmx register" vor. befehl kommt -> das ergebnis ist schon im register (muss nicht aufwendig über den ram berechnet werden) -> ein takt -> ergebnis da. das risc design kann das nicht.
jetzt habe ich mich endlich daran gewöhnt, wiki zu zitieren und nicht bücher und jetzt kommst du
ich habe halt so einen "wahnsinnigen" kumpel, der hätte damals fast einen acorn archimedes gekauft und ist dann doch beim amiga4000 gelandet (ende 1980er) ... der jammert heute noch, wie "kacke" x86 ist
die meisten sollten ja den aufkommenden 3d hype erlebt haben, entwickelt wurde er auf 68030 cpu´s. ob der damalige arm dann wirklich 8mal schneller war, ist egal, die x86er waren damals halt "nicht erwähnenswert" . sagen wir die am weitest verbreiteten cpu´s. aber bei weitem nicht die schnellsten.
Ein kleiner Kern hat bei gleicher Leistung einen deutlich kleineren Verbrauch als ein runtergetakteter großer Kern. Und für sehr viele Tasks ist nicht mehr Leistung erforderlich als ein kleiner Kern liefern kann.
XimiGin schrieb:
Ebenso die Kryo Verarschung, Kunde denkt sich oh Kryo sind doch die Performance Kerne im Gegenteil dahinter versteckt sich dann eben so ein A55 Rotz
Ich mag Dir jetzt nicht wirklich widersprechen, aber Qualcomm hängt an die Bezeichnung immer Gold und Silver dran, was dann entweder bei der schreibenden Zunft verschwindet oder beim Lesen übersehen wird.
Iapetos schrieb:
Was ist denn an OpenGL 3.2 bitte aktuell? Das war schon alt, als ich noch jung war.