News Snapdragon 675: Qualcomms erstes Cortex-A76-SoC wird in 11LPP gefertigt

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
9.913
Qualcomms Angebot an Mobile Platforms der 600er Baureihe wird zum 4G/5G Summit mit dem Snapdragon 675 um eine hinsichtlich Gaming-Leistung, Kamera-Features und KI-Fähigkeiten optimierte Variante ergänzt. Die Unterschiede zum Snapdragon 670 sind größer, als der Name vermuten lässt: Der Snapdragon 8150 wirft seine Schatten voraus.

Zur News: Snapdragon 675: Qualcomms erstes Cortex-A76-SoC wird in 11LPP gefertigt
 
In dem für Anfang September erwarteten Snapdragon 8150 als Nachfolger des Snapdragon 845
Falscher Monat oder? September 2019 wäre etwas spät.
 
  • Gefällt mir
Reaktionen: Deepfeaver
Verstehe das nicht, diese sinnlosen a53/55 kerne....

Die A72/73/76 haben doch eh einen dynamischen Takt bzw können sich einzeln abschalten.



Ebenso die Kryo Verarschung, Kunde denkt sich oh Kryo sind doch die Performance Kerne im Gegenteil dahinter versteckt sich dann eben so ein A55 Rotz
 
  • Gefällt mir
Reaktionen: Transistor 22
Der Kunde denkt sich gar nichts, da er davon absolut 0 Ahnung hat. Der kauft ein Smartphone nach Optik und wenn überhaupt nach 1,2 Testergebnissen in denen stehen wird "durchschnittliche Leistung, durchschnittliches Display, tolle Kamera" und zackt ist es eingetütet. Die 5 Leute hier im Internet auf den entsprechenden plattformen für Elektronik sind nicht repräsentativ.
 
  • Gefällt mir
Reaktionen: psychotoxic, baizer, stevefrogs und 8 andere
Ich verstehe nicht ganz, warum der 675 eine im Vergleich zum 670 schwächere GPU hat. Gerade wenn Qualcomm mit der Spieleperformance wirbt.
 
  • Gefällt mir
Reaktionen: iGameKudan, newport und der_henk
Effektfilter sind jetzt AI ... soso ... Marketing-Scamtalk vom Feinsten ...
 
  • Gefällt mir
Reaktionen: autofahrer50, psychotoxic, Key2myHeart und 7 andere
Scythe1988 schrieb:
Der Kunde denkt sich gar nichts, da er davon absolut 0 Ahnung hat. Der kauft ein Smartphone nach Optik und wenn überhaupt nach 1,2

Computerbild :D
Scythe1988 schrieb:
Testergebnissen in denen stehen wird "durchschnittliche Leistung, durchschnittliches Display, tolle Kamera" und zackt ist es eingetütet. Die 5 Leute hier im Internet auf den entsprechenden plattformen für Elektronik sind nicht repräsentativ.
 
Ich denke es ist ein Trend zu erkennen, dass doch immer mehr sich auch zumindest etwas mit der Technik auseinander setzen. Sieht man auch an den YouTube-Channels ganz gut. Ist natürlich immer noch eine klare Minderheit, aber verachten sollte man die auch nicht mMn.
@topic: Schön, dass wir jetzt so langsam immer weniger A57 Kerne im "Performance"-Cluster sehen.

@XimiGin, denke die A57 laufen dennoch ne Nummer sparsamer. Solange sowol A72/73/76 mit diesen lowpower Kernen gepaart werden, erkenne ich da einen Sinn.
8 Kerne A57 erschließen sich mir aber nicht so ganz. Glaube auch nicht, dass Android da so gut im Multicore skaliert. Mal abgesehen von Benchmarks.
 
Ich nicht, bei mir sind fast immer die 2* A72 aktiv.
Und die a53 im standby 😂

Es sind A53 bzw jetzt neu A55,
Die haben mit den A57 nichts am Hut
 
  • Gefällt mir
Reaktionen: flo.murr
Kann das Teil wenigstens 4k oder 1080p60 elektronisch stabilisieren?
Ich kann das zwar auch auf mein Nokia 7+ anschalten aber es ruckelt wie die Hölle.

Ich finde die Leistung des 660 schon meistens gut. Aber wenn man ein iPhone, OnePlus 6 oder ein P20 in die Hand nimmt, merke ich es immens.
 
Stärkt meine Annahme das die RT Cores nur ARM Cores sind, die halt die CPU entlasten bei Raytracing. Damit hat nvidia ja auch viel Erfahrung, wenn jetzt aber ARM Produkte für sowas optimiert werden, bekommt das einen faden Beigeschmack. Immerhin verlangt nvidia Unsummen für seine Hardware. Und man sieht ja auch wie schlecht die Performance ist, bei RT. Und das DLSS kann ein ARM Core auch, siehe die ganze AI Integration von Qualcomm und Mediatek ohne NPU. Ist ja nix weiter als upscaling.
 
wie gesagt, big chips kann man in arm architektur auch bauen. das alte risc design in harvard-architektur (wie beim 68030/40 z.b.) ist halt deutlich schneller als die heutige von neumann architiektur in den jetzigen "normalen" cpus.

links....

https://de.wikipedia.org/wiki/ARM-Architektur ... " Tests ergaben, dass diese Rechner bei praktisch gleicher Taktfrequenz etwa achtmal schneller waren als die Konkurrenten Commodore Amiga und Atari ST mit Motorola-68000-Prozessor. "

https://de.wikipedia.org/wiki/Motorola_68030 ... " Er ist ein Mitglied der 68000er-Familie mit einer integrierten Memory Management Unit (PMMU). Der Prozessor implementiert die Harvard-Architektur. "

https://de.wikipedia.org/wiki/Von-Neumann-Architektur "ist ein Referenzmodell für Computer "

https://de.wikipedia.org/wiki/Harvard-Architektur

wer sich besser auskennt, darf mich gerne weiter bilden.....

hier mal noch eine tabelle über "rechenleistung". intel spielte halt erst wieder mit der 486er reihe eine rolle, aber auch erst ab 66mhz....

https://de.wikipedia.org/wiki/Instruktionen_pro_Sekunde / leider ist bei der tabelle kein stromverbrauch dabei :D

mfg
 
Zuletzt bearbeitet:
Bully|Ossi schrieb:
Stärkt meine Annahme das die RT Cores nur ARM Cores sind, die halt die CPU entlasten bei Raytracing.

Wieso das? Es würde keinen Sinn machen eine universale CPU zur Beschleunigung einer spezifischen Berechnung zu verwenden. Eine CPU ist im Grunde genau das Gegenteil von dem, was man da braucht. Davon ab würden ARM Kerne wohl zu viel Chipplatz kosten. Ein ARM kern ist etwa 5mm² groß. Das wäre bei einer 2080Ti ca. 50% der Chipfläche Um das zu realisieren müssten de Shader und Tensor Cores massiv kleiner sein, als bei einer Titan V oder auch Pascal, was ich mir nicht wirklich vorstellen kann. Zudem würde das sehr energie ineffizient sein.

Bully|Ossi schrieb:
Und das DLSS kann ein ARM Core auch, siehe die ganze AI Integration von Qualcomm und Mediatek ohne NPU. Ist ja nix weiter als upscaling.

AI ist auch nicht gleich AI. Du kannst auch mit klassischen Grafikkarten und CPUs AI Berechnungen durchführen. Gerade im SoC Bereich ist es aber größtenteils ein Buzzword um auf Apple zu reagieren. Sieht man ja auch ganz gut. Jetzt werden nach und nach die SoCs durch NPUs erweitert, damit man nicht mehr auf die lahme CPU / GPU zurückgreifen muss.

ARM kann das sicherlich, aber die bekannten ARM Core Designs sind dafür sehr ineffizient. Zumal wenn die Tensor cores auch ARM Kerne wären, wäre der Chip noch viel viel größer.
 
ein risc design (wenig befehle, nicht ganz leicht zu programmieren) für stark optimierte (verlötete) befehle zu benutzen, sollte funktionieren, ergibt aber keinen sinn.

mann stelle sich die tensor und rt cores wie ein "mmx register" vor. befehl kommt -> das ergebnis ist schon im register (muss nicht aufwendig über den ram berechnet werden) -> ein takt -> ergebnis da. das risc design kann das nicht.

da geht es um andere dinge.

mfg
 
geil :evillol:

evtl. löscht es dann ja mal jmd......

jetzt habe ich mich endlich daran gewöhnt, wiki zu zitieren und nicht bücher und jetzt kommst du :heilig:

ich habe halt so einen "wahnsinnigen" kumpel, der hätte damals fast einen acorn archimedes gekauft und ist dann doch beim amiga4000 gelandet (ende 1980er) ... der jammert heute noch, wie "kacke" x86 ist :D

nur so als beispiel, wolfenstein 3d wurde auf einer next entwickelt und danach auf msdos portiert. https://de.wikipedia.org/wiki/Wolfenstein_3D

das war ein 68030 von motorola https://de.wikipedia.org/wiki/NeXTcube und daher habe ich nur mal nebenbei, diese cpu erwähnt.

die meisten sollten ja den aufkommenden 3d hype erlebt haben, entwickelt wurde er auf 68030 cpu´s. ob der damalige arm dann wirklich 8mal schneller war, ist egal, die x86er waren damals halt "nicht erwähnenswert" . sagen wir die am weitest verbreiteten cpu´s. aber bei weitem nicht die schnellsten.

mfg
 
Zuletzt bearbeitet:
XimiGin schrieb:
Verstehe das nicht, diese sinnlosen a53/55 kerne....
Die A72/73/76 haben doch eh einen dynamischen Takt bzw können sich einzeln abschalten.
Ein kleiner Kern hat bei gleicher Leistung einen deutlich kleineren Verbrauch als ein runtergetakteter großer Kern. Und für sehr viele Tasks ist nicht mehr Leistung erforderlich als ein kleiner Kern liefern kann.

XimiGin schrieb:
Ebenso die Kryo Verarschung, Kunde denkt sich oh Kryo sind doch die Performance Kerne im Gegenteil dahinter versteckt sich dann eben so ein A55 Rotz
Ich mag Dir jetzt nicht wirklich widersprechen, aber Qualcomm hängt an die Bezeichnung immer Gold und Silver dran, was dann entweder bei der schreibenden Zunft verschwindet oder beim Lesen übersehen wird.

Iapetos schrieb:
Was ist denn an OpenGL 3.2 bitte aktuell? Das war schon alt, als ich noch jung war.
Dann warst Du 2009 aber noch sehr jung...
Es müßte natürlich OpenGL ES heißen, bei dem 3.2 tatsächlich die neueste Version ist.
 
Zurück
Oben