News HDDs der Zukunft: Festplatten sollen PCIe und NVMe bekommen

Holt schrieb:
Es kann auch nur ein Kern vorhanden sein

Es kommt wohl auf den Controller an.
1590615107298.png

https://docs.broadcom.com/doc/BC00-0463EN

Aber du hast schon recht, bei dem vorhin von mir verlinkten gibt es anscheinend nur einen A15 Kern. Ich vermute jetzt einfach mal ins blaue, dass bei den xx16 Chips zwei Kerne und xx08 Chips eben nur ein Kern vorhanden ist.
 
Zuletzt bearbeitet:
Ich haben mal nach der XOR Performance der aktuellen Intel Xeons mit AVX512 gegooglt und dies hier für den Xeon Gold 5118 12 Kerner (105W) mit einer AVX512 Einheit pro Kern gefunden. Keine Ahnung was genau die instructions bedeuten, bei AVX2 sollten ja 256 Bit also 4 Byte breite Daten pro Befehl verarbeitet werden, damit würde der XOR Durchsatz für einen Datenstrom von rund 400GB/s reichen und die Xeons mit zwei AVX512 Einheiten pro Kern sollten nochmal deutlich schneller sein und es gibt ja auch Modelle mit mehr Kernen. Die XOR Operationen bei einem Software- oder Fake-RAID auf die CPU auszulagern, dürfte also zu keinem Flaschenhals führen.
 
Aber wie ist das bei einem Softwareraid mit der Sicherheit und dem erkennen falls sich doch mal das Betriebssystem verabschiedet. Bei einem Hardware raid kann man ja einfach die Karte + Festplatten woanders einbauen und der raid wird sofort wieder erkannt bzw wiederhergestellt.

Aber wie ist das bei einem Software raid wenn man doch mal Windows neu machen muss beispielsweise.
 
PS828 schrieb:
falls sich doch mal das Betriebssystem verabschiedet.
Bei einem Xeon Server mit ECC RAM und einem Enterprise Linux drauf habe ich über viele Dutzend Produktionsrechner über Jahrzehnte niemals erlebt das einer abgestützt wäre.
PS828 schrieb:
Bei einem Hardware raid kann man ja einfach die Karte + Festplatten woanders einbauen und der raid wird sofort wieder erkannt bzw wiederhergestellt.
SW RAIDs sind sogar noch kompatibler, die Linux md SW RAIDs unterstützen sogar die Metadatenformate viel Hardware RAID Controller und auch der Intel Chipsatz RAIDs. Das hat Intel da extra reinprogrammiert, auch weil es eben keinen RST Treiber für Linux gibt und sie sich den somit sparen können.
PS828 schrieb:
Aber wie ist das bei einem Software raid wenn man doch mal Windows neu machen muss beispielsweise.
Unter Windows würde ich nie ein SW RAID bauen oder betrieben wollen, auch kann ich Windows nicht als ernstzunehmendes Server Betriebssystem ansehen, egal wie oft Microsoft da Server in den Titel schreibt. Es sind wohl nicht zufällig die Windows User die immer die Hardware- oder auch Chipsatz RAIDs nutzen, während SW RAIDs unter Linux schon längst Standard geworden sind.
 
Gute Hinweise, ich bin auf Windows angewiesen und zusätzlich zum NAS wo es bessere Möglichkeiten als Windows gibt brauch ich auch in der Workstation einen. Da wäre also ein Hardware raid die einzig praktische Lösung. Dieser Fakt ist auch schonmal viel wert, ich bin gerade erst dabei mich in die Thematik einzulesen und so richtig Erfahrungswerte von anderen sind da schon viel wert zumal man über die realen Probleme eher selten was liest. Ich stehe da noch ziemlich am Anfang. Aber gut dass es dann zumindest fürs selbstbau NAS Linux, free NAS usw werden kann.
 
Holt schrieb:
PCIe ist eine Point-to-Point Verbindung, genau wie SATA auch, wo soll da der Rückschritt sein?
Meine Befürchtung ging in die Richtung dass sich z.b. dann 4 PCIe Lanes für (HDD) Storage als 'mainstream' level einbürgert und man dann schulterzuckend sagen kann das eben nur noch 4 Platten anschließbar sind wenn die Verbindungen strikt 1:1 sind.
Die Lanes steckt man eventuell lieber in die Erweiterungsslots, während bisher die SATA Controller mehrere SATA Ports pro PCIe Lane bieten. Soweit ich weiß zumindest, wäre auch eher unsinnig wenn nicht.
Wenn man erst einen Controller dazwischenstecken muss wird es ähnlich doof wie mit heutigen Karten für SATA. Zumindest ist da meine, ziemlich alte, info dass es passieren kann dass platten die an einem controller dran hingen nicht von anderen korrekt erkannt oder ausgelesen werden können, oder dass die stabilität bei einigen nicht gegeben ist. Für Großkunden mag das weniger tragisch sein, da hat man Backups und oft vertragliche Regelungen mit dem Ausrüster der seinerseits vorher testen kann bevor er Zeug für Kunden verbaut. Aber ich privat habe nicht den Nerv und das Geld um erstmal zu gucken wie das läuft. Das hat mich bisher immer davon abgehalten einfach eine HBA Karte, oder einen richtigen RAID Controller zu kaufen und stattdessen nach Boards geguckt die gleich genug Ports mitbringen. Damals waren noch 8-10 Ports auf Desktop-Boards um die 150 € zu finden :/

Für Sockel 1200 gibts ganze 4 Ergebnisse auf Geizhals mit 8x SATA ab 280 €
Bei AM4 immerhin 30 ab 112 €

Da überlege ich schon ob das in Zukunft noch weiter reduziert wird, besonders wenn es mit einem Technologiewechsel kombiniert wird. Schließlich soll man offenbar nach Meinung einiger Hersteller als privatkunde nur kleine Hardware betreiben und für alles andere auf teurere Serverhardware zurückgreifen.

Wenn aber die PCIe Lanes ihrerseits auf dem Board in einen Verteiler laufen und der Rest erstmal nur relativ günstige Anschlüsse sind wäre es eher realistisch auch wieder mehr Platten ohne Zusatzkarten an ein 'consumer' Mainboard zu klemmen.
 
Zuletzt bearbeitet: (ergänzung)
Optische Laufwerke sind im Grunde tot und die wenigsten Kunden bauen sich Unmengen an Platten ein.
Ich tippe mal der Durchschnittskunde benutzt genau einen SATA Port für eine SSD.
Dass die Hersteller da vielleicht einfach nicht viel Bedarf sehen da Unmengen an Ports draufzuknallen ist doch klar.
Abgesehen davon gibts auch einfach mehr und ältere AM4 Mainboards während S1200 noch zu frisch für Special-Boards ist.
 
Holt schrieb:
Der einzige Vorteil ist also, dass der Host bei den Host Managed SMR genau weiß was vor sich geht und nicht unerwartet lange warten muss ohne zu wissen wieso es nun so lange dauert.
Dieses unerwartet lange warten war doch der Grund warum sich alle über die SMR WD Reds aufgeregt haben, neben der Tatsache das WD es verschwiegen hat?
Ergänzung ()

PS828 schrieb:
Aber wie ist das bei einem Software raid wenn man doch mal Windows neu machen muss beispielsweise.
Windows? keine Ahnung!
Linux, RAID unter Debian erstellt, in Server mit Fedora eingebaut und geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
PS828 schrieb:
ich bin auf Windows angewiesen
Wenn Du dann das RAID im Windows Rechner willst, ist ein Hardware RAID Controller wohl auch weiterhin eine gute Idee, aber der Trend geht zu NAS dies kann auch der selbst gebaute Heimserver sein das als NAS dient. Ich haben einen auf Xeon-D 1541 Basis und natürlich mit ECC RAM, der ist auch noch nie abgestützt und läuft mit einem normalen md SW RAID 5 mit 7 10TB Seagate IronWolf/SkyHawk nun schon seit Jahren ohne Probleme.

Dies hier hatte ich gesucht:

Bigeagle schrieb:
Meine Befürchtung ging in die Richtung dass sich z.b. dann 4 PCIe Lanes für (HDD) Storage als 'mainstream' level einbürgert und man dann schulterzuckend sagen kann das eben nur noch 4 Platten anschließbar sind wenn die Verbindungen strikt 1:1 sind.
PCIe Lanes sind universell und wenn man HDDs (oder SSDs) mit PCIe Anbindung hat, kann man diese an jeder beliebigen PCIe Lane betreiben, nur für besondere Funktionen wie RAID oder bei Intel das Optane Caching und ggf. auch mal die Bootfähigkeit, gibt es Einschränkungen auf bestimmte Lanes.
Bigeagle schrieb:
Die Lanes steckt man eventuell lieber in die Erweiterungsslots, während bisher die SATA Controller mehrere SATA Ports pro PCIe Lane bieten. Soweit ich weiß zumindest, wäre auch eher unsinnig wenn nicht.
Wenn man die Zusatzcontroller betrachtet, dann haben die meisten mehr Ports als PCIe Lanes, aber wenn man sich die Blockdiagramme der Chipsätze hier sieht, dann geht bei denen von Intel pro SATA Port auch eine PCIe Lane verloren und ebenso funktioniert es bei AMDs X570 und auch bei den EYPC. Da ist der Tausch also 1:1.
Bigeagle schrieb:
Zumindest ist da meine, ziemlich alte, info dass es passieren kann dass platten die an einem controller dran hingen nicht von anderen korrekt erkannt oder ausgelesen werden können, oder dass die stabilität bei einigen nicht gegeben ist.
Wo kommt diese Information denn her? Die mag für RAIDs gelten, aber bei Einzellaufwerken sollte es total egal sein an welchem SATA oder SAS Controller die initialisiert und dann betrieben werden. Natürlich nur, so lange beiden die Kapazität unterstützen und bei USB Adaptern kann es wegen Verschlüsselung oder 4k Sektoremulation auch anders sein, aber hier geht es ja nicht um USB.
Blutschlumpf schrieb:
Optische Laufwerke sind im Grunde tot und die wenigsten Kunden bauen sich Unmengen an Platten ein.
Eben, die optischen Laufwerke sind praktisch schon fast vom Markt verschwunden und wenn man sich die Gehäuse ansieht, so scheint es mir auch als würden immer weniger Leute viele HDDs darin verbauen wollen. Die wenigsten neu erscheinenden Gehäuse können noch 6 oder gar mehr HDDs aufnehmen.
AlphaKaninchen schrieb:
Dieses unerwartet lange warten war doch der Grund warum sich alle über die SMR WD Reds aufgeregt haben, neben der Tatsache das WD es verschwiegen hat?
Also ich denke das die Red obendrein noch einen FW Bug haben:
Sowas sollte mit und ohne SMR nicht passieren, solange kein LBA adressiert wird der höher als der maximale LBA ist, den man vorher in den Device Identdaten ausgelesen hat und dies passiert bei andere HDDs ja auch nicht.

Das WD keinen Hinweis auf die Verwendung von SMR ausgerechnet bei den NAS Platten gegeben hat, war natürlich total daneben, eben weil NAS und Surveillance nicht zu den Anwendungen gehören bei denen man SMR Platten verwenden würde. Seagate schreibt sogar im Datenblatt deutlich, wofür die Archive HHDs, die ersten am Markt erhältlichen HDDs mit SMR, nicht gedacht sind:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18 und AlphaKaninchen
DarkerThanBlack schrieb:
Und was soll dieser Wechsel genau bringen? 600MB/s die ein SATAIII zur Verfügung hat, erreicht doch kaum eine HDD. Ein Wechsel auf PCIe ist doch wirklich komplett übertrieben oder?
Das seh ich auch so.
 
Jap, ich opfere ja auch meine PCIe Lanes dafür.
 
Blutschlumpf schrieb:
Optische Laufwerke sind im Grunde tot und die wenigsten Kunden bauen sich Unmengen an Platten ein.
Ich tippe mal der Durchschnittskunde benutzt genau einen SATA Port für eine SSD.
Da der durchschnittskunde mitlerweile der Notebookkäufer ist würde ich auf eine SSD im M.2 Slot tippen, ich habe das selbst im Desktop PC so eine 2TB NVMe SSD, und würde es definitiv nicht mehr anders machen.
 
Zuletzt bearbeitet:
Ok, warum genau sprechen die über die Zukunft, wenn man heute schon eine Intel 2.5 Zoll Optane 900P mit dem beiligenden M.2 auf U.2 Adapterkabel anschließen kann?
https://bit-tech.net/reviews/tech/storage/intel-optane-ssd-900p-280gb-review/1/#izwjab

Das einzige was hier fehlt sind bezahlbare Platten mit so einem Anschluss.

Außerdem verbraucht die Intel massig Strom. Ich glaube auch bis heute nicht daran, dass die NVMe SSDs so effizient sind wie beworben wird. Natürlich haben die einen sehr guten Leerlauf-Verbrauch, aber warum kann ich meine NVMe in diesem Moment nur gerade so anfassen und eine SATA SSD ist komplett kalt. Ich mein ich surfe nur und da rattern keine 3000 MB/s durch die SSD. Das selbe gilt für externe NVMe Gehäuse. Die gängigen USB Controller unterstützen noch kein StandBy. Dadurch bleibt die SSD also dauerhaft im Betrieb. Ich habe jetzt 3 Gehäuse getestet und alle kann man gerade so noch anfassen, obwohl man die SSD nur 30 Minuten angeschlossen hat. Ich hätte jedenfalls keinen Bock darauf mir mehrere U.2 2.5 Zoll SSDs einzubauen, wo jede mindestens 5W für nichts verbrennt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
mgutt schrieb:
Das einzige was hier fehlt sind bezahlbare Platten mit so einem Anschluss.
Ja!
mgutt schrieb:
Außerdem verbraucht die Intel massig Strom. Ich glaube auch bis heute nicht daran, dass die NVMe SSDs so effizient sind wie beworben wird. Natürlich haben die einen sehr guten Leerlauf-Verbrauch, aber warum kann ich meine NVMe in diesem Moment nur gerade so anfassen und eine SATA SSD ist komplett kalt.
Ich habe hier eine M.2 Sata SSD im USB Gehäuse das wird auch Heiß, bei einer normalen Sata SSD ist einfach mehr Fläche zur Kühlung vorhanden.
mgutt schrieb:
Ich mein ich surfe nur und da rattern keine 3000 MB/s durch die SSD. Das selbe gilt für externe NVMe Gehäuse. Die gängigen USB Controller unterstützen noch kein StandBy. Dadurch bleibt die SSD also dauerhaft im Betrieb. Ich habe jetzt 3 Gehäuse getestet und alle kann man gerade so noch anfassen, obwohl man die SSD nur 30 Minuten angeschlossen hat.
Schau doch mal auf den Stromverbrauch beim Lesen und schreiben...
Meine Samsung 970 Evo z.B.
Durchschnittliche Leistungsaufnahme (Betrieb) Durchschnitt: 6 W Maximum: 10 W (Burst mode)

Das so ein USB Gehäuse da warm wird wundert mich nicht das ist ein Smartphone SOC unter Volllast.
mgutt schrieb:
Ich hätte jedenfalls keinen Bock darauf mir mehrere U.2 2.5 Zoll SATA SSDs einzubauen, wo jede mindestens 5W für nichts verbrennt.
Einmal Sata zuviel...
 
Zuletzt bearbeitet:
AlphaKaninchen schrieb:
bei einer normalen Sata SSD ist einfach mehr Fläche zur Kühlung vorhanden.

Laut Samsung verbraucht die 960 Evo (NVMe) ca 5W im Leerlauf und eine 860 Evo (SATA) 0.05W. Das ist Leerlauf und nicht Standby und auch nicht Lesen/Schreiben. Also die Platte wird in so einem Fall noch gar nicht vom OS "runtergefahren". Das ist meiner Ansicht nach der wahre Grund.

Einmal Sata zuviel...

Danke ^^
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Holt schrieb:
PCIe Lanes sind universell und wenn man HDDs (oder SSDs) mit PCIe Anbindung hat, kann man diese an jeder beliebigen PCIe Lane betreiben, nur für besondere Funktionen wie RAID oder bei Intel das Optane Caching und ggf. auch mal die Bootfähigkeit, gibt es Einschränkungen auf bestimmte Lanes.
Universell für die Datenübertragung mögen sie sein, aber ich brauche immer noch einen passenden Steckplatz. Ich löte meine Platten nicht per hand ans Board ^^
Aber wenn die auch jetzt schon eine Lane pro SATA Port verwenden gibts zumindest keinen Grund da weiter zu reduzieren. Das wäre auch ein möglicher Grund warum man SATA 3 ablösen möchte, denn da ist ab pcie 3 auch mehr Datenrate da als man ohne Aufteilung nutzen kann.
eine pcie 4 lane würde vermutlich problemlos für 3 SATA 3 Ports reichen O.o

Die Info zu den Zusatzcontrollern stammt von gesprächen mit Systemadministratoren aus Praktikum, Ausbildung und Schule vor gut 10 Jahren. Dazu hatte ich auch schon freude mit eben diesen besch...eidenen USB Controllern. ich wäre nie auf die idee gekommen dass tatsächlich jemand dafür sorgt dass eine usb platte nicht mehr intern eingelesen werden kann und umgekehrt. das kam wohl erst mit usb 3 auf, denn meine älteren usb 2 gehäuse hatten das problem alle nicht.
Die klagen gingen von reinen Problemen in der Ansteuerung bis zu unsauber verarbeiteten Anschlüssen. Die Vorstellung nach ein, zwei Jahren dann einen Heisenbug an einer Festplatte zu haben weil eine Lötstelle einen feinen Bruch hat ist gruselig. Bei Boards sollte sowas seltener gewesen sein weil die aufgrund der großen Produktionsmenge eher ein gutes qualitätsmanagement bekommen haben - so damals die erklärung.
 
mgutt schrieb:
Ok, warum genau sprechen die über die Zukunft, wenn man heute schon eine Intel 2.5 Zoll Optane 900P mit dem beiligenden M.2 auf U.2 Adapterkabel anschließen kann?
Die Optane sind aber SSDs, hier in der News geht es um HDDs, also die mit den drehenden Platten darin.
mgutt schrieb:
Außerdem verbraucht die Intel massig Strom. Ich glaube auch bis heute nicht daran, dass die NVMe SSDs so effizient sind wie beworben wird.
Die Optane 900P ist eine Consumerversion der Enterprise Optane DC P4800X und bei Enterprise SSDs ist es üblich, dass diese im Idle mehr Strom ziehen, denn typischerweise sind sie selten Idle und auf maximale Performance ausgelegt, da aber das Aufwachen aus Energiesparzuständen auch Zeit kosten, spart man sie sich bei den Enterprise SSDs. Die Optane sind nun auch wirklich alles andere als typische Beispiele für NVMe SSDs!
mgutt schrieb:
Ich habe jetzt 3 Gehäuse getestet und alle kann man gerade so noch anfassen
Das ist auch ein Grund warum ich immer nur Fertig-USB SSDs nehmen und keinen internen in US Gehäuse baue, denn bei die internen fangen i.d.R. erst bei 70°C an zu throtteln, während die FW der SSD in den USB Gehäusen so angepasst ist, dass diese früher throtteln. Meine Samsung T5 Portable ist jedenfalls kühl, wenn sie zwar schon seit Stunden angeschlossen aber im Idle ist.
mgutt schrieb:
Laut Samsung verbraucht die 960 Evo (NVMe) ca 5W im Leerlauf
Wo steht das? Ich sehen auf der Seite der 960 Evo bei Samsung "POWER CONSUMPTION (IDLE)³) 40mW
³) Actual power consumption may vary depending on system hardware & configuration"
, die "AVERAGE POWER CONSUMPTION (System Level)3)" liegt je nach Modell zwischen 5,3W und 5,7W. Wieso schreibst du immer so eine Unsinn ohne eine Quelle zu nennen? Würdest Du nach der Quelle gesucht haben, hättest du nämlich gemerkt das die Information falsch ist und den Unsinn gar nicht erst geschrieben.
Bigeagle schrieb:
Universell für die Datenübertragung mögen sie sein, aber ich brauche immer noch einen passenden Steckplatz.
Das ist richtig, aber derzeit ist dies ein Wunsch eines Anwenders und keine Initiative der HDD Hersteller, ob dies jemals realisiert wird und wenn ja mit welchen Steckplatz, ist sowieso noch unbekannt. Aber statt einer Karte mit einem SATA Host Controller kann man dann eindach einen Adapter nehmen, wie die Adapter für die M.2 PCIe SSDs, bei den einfachen von denen werden die PCIe Lanes ja auch nur vom PCIe Slot an den M.2 Slot geleitet.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ich würd’ mich an sich über ein neues Standardkabel freuen, das HDDs und NVMe Platten wieder vereint.

M.2 halte ich für eine extrem unglückliche Sache... oft schwer erreichbar, skaliert nicht... und auf manchen Boards wundern sich User, dass nach Anschluss ihrer M.2 SSD plötzlich ihre S-ATA Platten nicht mehr gehen, weil ihnen nicht bewusst war, dass bei Nutzung des M.2 Ports S-ATA Ports wegfallen.

Dieses Kuddelmuddel darf gerne weg.
 
  • Gefällt mir
Reaktionen: PS828 und AlphaKaninchen
Holt schrieb:
Wo steht das? Ich sehen auf der Seite der 960 Evo bei Samsung "POWER CONSUMPTION (IDLE)³) 40mW
³) Actual power consumption may vary depending on system hardware & configuration"
, die "AVERAGE POWER CONSUMPTION (System Level)3)" liegt je nach Modell zwischen 5,3W und 5,7W. Wieso schreibst du immer so eine Unsinn ohne eine Quelle zu nennen? Würdest Du nach der Quelle gesucht haben, hättest du nämlich gemerkt das die Information falsch ist und den Unsinn gar nicht erst geschrieben.

Sorry, ich habe "Leerlauf" geschrieben, meinte aber "Active Idle", also zu deutsch sowas wie "Betrieb ohne Lesen/Schreiben". Warum ich allerdings nur 0,05W bei der SATA erwähnt habe, weiß ich tatsächlich nicht. Tatsächlich sind es 5,3W bei der NVMe und irgendwas unter 1W bei der SATA. Die verschiedenen Tests der 850 EVO (von der 860 EVO SATA findet man nichts) gehen von 0,3 bis 0,5W:
https://www.anandtech.com/show/10481/the-samsung-850-evo-4tb-ssd-review/9
https://www.custompcreview.com/reviews/samsung-850-pro-512gb-sata-ssd-review/

Und diese 5W Differenz zeigen sich eben durch die entsprechende Abwärme. Wenn deine NVMe im Desktop dagegen kalt sein sollte, während du surfst, dann hätte ich das ehrlich gesagt gerne gewusst. Meine ist durchgehend bei 50 Grad.
 
mgutt schrieb:
Sorry, ich habe "Leerlauf" geschrieben, meinte aber "Active Idle", also zu deutsch sowas wie "Betrieb ohne Lesen/Schreiben".
Wo steht denn bei Samsung, dass die "Active Idle" 5W wäre, wenn die "AVERAGE POWER CONSUMPTION" nur knapp über 5W liegt? Den Beleg dafür hätte ich schon gerne!

Gerade bei Anandtech sieht man ja auch, dass die Energiespareinstellungen, die es auch bei PCIe SSDs gibt, einen teils deutlichen Unterschied bei der Leistungsaufnahme ausmachen und wen du dir schon die Mühe gemacht hast diese für die 850er SATA SSDs rauszusuchen, warum hast Du nicht auch die Power Consumption im Review der 960 Evo (1TB) gefunden und verlinkt? Anandtech hat da 109mW mit Energiespareinstellungen (wobei des Testsystem DevSlp als tiefsten Energiesparzustand des PCIe link power Management nicht unterstützt) und 1,206W ohne ermittelt, also nicht einmal ein Viertel der angeblichen 5W. Das die PCIe SSDs im Idle ohne link power Management mehr Leistungsaufnahme haben, sollte schon deswegen klar sein, weil es eben mehr Strom kostet 4 PCIe Lanes aktiv zu halten als einen SATA Link.

Sollte übrigens jemand in einem Review 5W im Idle gemessen haben, so hat er vermutlich die SSD in dem Moment gemessen als der Controller den Pseudo-SLC Schreibcache geleert oder die Idle-GC ausgeführt hat. Dabei ist die Leistungsaufnahme natürlich höher, aber die SSD nicht wirklich Idle und dies dauert ja auch nicht ewig, ist also nicht die wirkliche Idle Leistungsaufnahme. Da nicht weiß wann genau solche Hintergrundaktivitäten stattfinden, kann es natürlich immer passieren das ein Reviewer gerade diesen Moment erwischt.
 
Zurück
Oben