Test Core i5-8265U & i3-8145U im Test: Mehr Leistung quasi nur bei Ein-Kern-Last

Moment... sehe ich das richtig, dass alle die immer schreien, dass AMD ja Schrott ist, weil die IPC ja so unglaublich wichtig ist, jetzt monieren, dass diese CPU mit super IPC mies ist? Wenn ich mich da irre, korrigiert mich... ;)
 
Rome1981 schrieb:
Moment... sehe ich das richtig, dass alle die immer schreien, dass AMD ja Schrott ist, weil die IPC ja so unglaublich wichtig ist, jetzt monieren, dass diese CPU mit super IPC mies ist? Wenn ich mich da irre, korrigiert mich... ;)
Menschen die grundsätzlich verallgemeinern bzw pauschalisieren irren meistens...
 
  • Gefällt mir
Reaktionen: bad_sign, Creeed, Prophetic und 2 andere
Intels große Errungenschaften der letzten Zeit:

  • Coffee Lake Refresh: 2 Kerne dran gepappt, verlötet, gleiche Fertigung, mehr Leistung durch mehr Leistungsaufnahme
  • Skylake X Refresh: Keine Designänderungen, CPUs jetzt verlötet, paar mhz Takt
  • Whiskey Lake: Keine Änderungen, neuer Name und her Single Core Takt

Mensch ich bin sehr beeindruckt. Und diese Aussichten.... 10nm nicht in absehbarer Zeit, Größte Neuerung der Architektur in absehbarer Zeit ist einfach mehr Cache, die größte Neuerung die auch bald mal kommt sind zwei Dies auf einer Platine, nachdem man über "zusammengeklebte Chips" gemeckert hat...

Eine tolle Firma :)
 
  • Gefällt mir
Reaktionen: Smartbomb, Disco Pongo, Creeed und 4 andere
Und wieder kein natives HDMI 2.0a🙄
 
  • Gefällt mir
Reaktionen: ghecko
Der Hammer ist ja falls Intel wirklich irgendwann im Jahr 2040? den 10nm Prozess gebacken bekommen sollte, ist dieser am Anfang wohl schlechter als der bis zum anschlag ausgelutschte 14nm Prozess xD
 
  • Gefällt mir
Reaktionen: gesperrter_User
Also für den typischen Nutzer deutlich besser. Umgekehrt ist eher die Frage welche der typischen Anwendungen wie Browser, mail oder Video mehre Kerne unterstützt. In dem Bereich sieht es mehr als nur bescheiden aus...
 
Nureinnickname! schrieb:
Der Hammer ist ja falls Intel wirklich irgendwann im Jahr 2040? den 10nm Prozess gebacken bekommen sollte, ist dieser am Anfang wohl schlechter als der bis zum anschlag ausgelutschte 14nm Prozess xD

Genau das ist ja gerade passiert. Aktuell gibt es einen einzigen Prozessor auf 10nm-Basis alias Cannon Lake (i3-8121U). Die Ausbeute ist derart schlecht das dort sogar die iGPU komplett deaktiviert ist.

Das wird schon noch eine Weile dauern bis deren 10nm/7nm Prozess das Level vom 14nm+++ erreichen wird.

Es wird ja gefühlt wöchentlich darüber spekuliert ob Intel die 10nm Fertigung inzwischen komplett verworfen hat und gleich auf 7nm gehen wird.


Gruß!
 
  • Gefällt mir
Reaktionen: Heschel
Shoryuken94 schrieb:
Intels große Errungenschaften der letzten Zeit:
..
Mensch ich bin sehr beeindruckt. Und diese Aussichten.... 10nm nicht in absehbarer Zeit, Größte Neuerung der Architektur in absehbarer Zeit ist einfach mehr Cache, die größte Neuerung die auch bald mal kommt sind zwei
Das ist einfach ein typisches rebranding.
Auch wenn es für uns doof klingt, muss Intel das machen, denn die Notebookhersteller fordern es.
Es gibt genug Leute die sich absolute null mit CPUs auskennen. Einige checken noch das eine höher Nummer neuer ist und damit vermutlich besser.

Technisch verkaufen sie seit Jahren das Gleiche. Es zeigt wie wenig Konkurrenz sie haben, dass sie das machen können.

Laut den Menschen die sich in der Industrie auskennen, hat eine Fertigung mit der anderen wenig zu tun. 10nm ist zwar voll von Problemen aber beim Nachfolger 7/5nm wird es ganz anders sein. Es kann gut sein, dass Intel beim 5nm Battle wieder halbwegs Anschluss findet.

Das Fab Problem mit 10nm könnten bei 5nm nicht mehr sein. Aber ich denke eher das Intel bei der CPU Architectur noch eher Probleme bekommt.
Apple hat Intel in JavaScript, Client load IPC schon überholt. ARM A76/Helios/Deimos sind quasi bald auf Augenhöhe bei besserer Effizienz. ARM hat auch specs für Vector extensions, die zwar bisher nur ein paar Server CPUs integriert haben, aber ganz leicht dazu kommen können wenn man es braucht, wobei es scheint das NPUs der bessere Weg sind.
Intel ist noch die bessere Wahl bei relationalen DBs ala oracle. Viele simplere DBs ala redis sind jetzt schon auf ARM sauschnell.
Zukünftige Apps ind Python, Java, Swift, Go, Webassembly und JavaScript laufen auf ARM nicht schlechter.
Es sagen immer alle Geekbench ist ein schlechter Vergleich, aber in SPEC benchmarks sieht es nicht besser aus für Intel vs ARM.
Solange Windows on ARM einen emulator braucht ist es Mist, aber native (oder Chromebooks/iOS) braucht keiner mehr Intel für client seitige workloads.

Vielleicht hat Intel ja etwas in der Schublade, dass nur so verzögert wurde, aber wenn sie so weiter machen mit den coreiX, werden sie in 10 Jahren weg sein bis auf ein Windows Business User (für die 10 Jahre kein Zeithorizont ist).
 
Botcruscher schrieb:
die Frage welche der typischen Anwendungen wie Browser mehrere Kerne unterstützt

Moderne Browser wie Firefox nutzen sämtliche Kerne plus GPU für das Rendering ;-)

Und ein Browser hängt nicht "frei schwebend" in der Luft. Darunter läuft ein Betriebssystem, was auch mehrere Threads braucht.

Wie viele Jahre dauert es wohl noch, bis man dieses
"Datt ham' wa schon immer so gemacht, datt wird sich auch NIE ändern"
mal aus den Köpfen bekommt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Creeed, usb2_2 und Shoryuken94
Botcruscher schrieb:
Also für den typischen Nutzer deutlich besser. Umgekehrt ist eher die Frage welche der typischen Anwendungen wie Browser, mail oder Video mehre Kerne unterstützt. In dem Bereich sieht es mehr als nur bescheiden aus...

Bitte was? Jeder halbwegs moderne Browser ist Mehrkern optimiert. Installier dir einfach mal Google Chrome, der nutzt alle verfügbaren Kerne. Aber du musst erst mal hinbekommen mit normalem Browsen die CPU auch nur ansatzweise auszulasten. Fast alle modernen Mailclients können mehrere Kerne Nutzen, aber auch hier werden so wenig Ressourcen verbraucht, dass das kaum eine Rolle spielt. Video, die meisten Player nutzen GPU Beschleunigung. Aber auch hier ist der Chrome Browser ein super Beispiel. Schau dir auf Youtube mal ein 8K HDR Video an. Deaktiviere die GPU Beschleunigung und Staune. Habs bisher nur auf einem Hexa Core mit Hyperthreading getestet, ist aber für Chrome kein Problem, so eine CPU nahezu zu 100% auszunutzen.


Extrem viel Software im Alltäglichen Leben ist Multithead fähig. Davon ab nutzen viele Leute mehrere Programme gleichzeitig. Spotify hören, dabei ein Dokument bearbeiten und den Browser offen haben ist jetzt kein Spezialfall. Dann rödelt der Antivirenscanner noch im Hintergrund oder du packst mal eine .zip aus etc. Es ist sehr selten, dass du mal nur einen kern nutzt. Alleine Windows verteilt seine Tasks ja schon auf viele Kerne.

Die meisten Leute nutzen aber halt nicht mal annähernd die Grenzen von einem Dual Core mit HT aus, weil jeder Task so schnell berechnet ist. Dazu wird wenn es geht auch auf GPU Beschleunigung oder Befehlssatzerweiterungen zurückgegriffen.
 
  • Gefällt mir
Reaktionen: HaZweiOh
HaZweiOh schrieb:
Wie viele Jahre braucht es wohl noch, bis man dieses "Datt ham wa schon immer so jemacht, datt wird sich auch NIE ändern" mal aus den Köpfen bekommt?


Das sind diese Leute die auch einen 2500K haben und meckern, dass neue CPUs nicht schneller sind.
 
irgendwie tragisch... mein 6 jahre altes 8570P mit 3840QM schafft mehr punkte in CB multithread bench :evillol:

aber gut zu wissen, das mein alter panzer leistungsmässig in multicore anwendungen, immernoch vorne mitspielt :daumen:
 
leider nix Neues... Also wieder abwarten und Tee trinken... AMD sollte mal die Tacktschraube Richtung 5GHz drehen. Dann hätten sie auch in Spielen die Nase vorn...
 
guggi4 schrieb:
Selbst als jemand, der regelmäßig Technews liest, hab ich bei Intels Mobilprozessoren komplett den Überblick über Codenamen und Modellnummern verloren :freak:

Im Laden brauchst du dann eine Beschreibung, mit der Seitenzahl der Bibel, um die Unterschiede zu erkennen.
 
HaZweiOh schrieb:
Moderne Browser wie Firefox nutzen sämtliche Kerne plus GPU für das Rendering
Und dazu noch alle CPU Kerne/Threads für ein Video, falls die GPU das Format nicht unterstützt/die Beschleunigung nicht ausreicht. Die sind also nicht nur pro Tab ein Thread, sondern jeder Tab unterstützt durchaus multithreading.

Das wird eigentlich auch oft genug erwähnt und anfangs wurde sogar gemeckert, als Chrome jeden Tab vom Rest des Browsers getrennt hat, da das ja zu viel Leistung braucht.
 
usb2_2 schrieb:
Und dazu noch alle CPU Kerne/Threads für ein Video, falls die GPU das Format nicht unterstützt / die Beschleunigung nicht ausreicht. Die sind also nicht nur pro Tab ein Thread, sondern jeder Tab unterstützt durchaus multithreading.

Mit der Einführung von AV1 bei den großen Playern (Youtube, Netflix, Facebook) wird das demnächst häufig der Fall sein. Diese Umstellung läuft bereits, auch deshalb ist die alte "Singlethread ist alles"-Denkweise nicht mehr zeitgemäß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usb2_2
Leider nicht wirklich interessant und in Sachen Fortschritt, ein Griff ins Klo.

Die Tatsache das die Konkurrenz wächst und Intel nicht mehr wirklich liefern kann zeigt, die Microarchitektur ist wirklich am Ende.

Da hilft es auch nicht, noch so viele + hinter die 14nm zu hängen.

Langsam muss Intel sich was einfallen lassen und zwar zügig.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: aklaa
Zurück
Oben