Wer braucht 32Gb RAM?

Status
Für weitere Antworten geschlossen.
@R4sh *mitglänzendenaugenanschau*
Das wäre ultra super toll, wenn ein Sachverständiger sich mal Blender im Kombo zu AMD GraKa anschauen könnte!! :D

@all
Danke euch allen, das Forum gibt freundlicherweise schneller Antwort, als ich meinen nechsten Beitrag schreiben kann... bin immer noch am lesen...
 
HisN jetzt mal eine Frage von mir. Bringt mehr RAM immer was egal ob man es ausnutzen kann oder nicht ? weil wenn du dir 128gb holst:freaky: muss du das auch auch voll ausnutzen können ;)
 
Also ich habe bloß 4gb ram. Mir reicht das weil ich eigentlich nur im Internet surfe, ab und zu mal etwas gaming und Office. Wenn man aber aber hardcore gamer ist sind 8gb wohl pflicht. Für professionelle videobearbeitung bzw. Rendern sollten wohl besser 16 GB verbaut sein. 32gb und mehr sind wohl für Virtualisierungszwecken und server ratsam.
 
Zuletzt bearbeitet:
@R4sh
Kannst du dann dein Kurzbericht gleich hier posten? Das wäre vielleicht am sinnvollsten, dann haben auch andere aus der Community was davon, oder sonst per PN. Natürich erst dann wenn du Zeit hast! :)
 
Kevin15 schrieb:
Wenn man aber aber hardcore gamer ist sind 8gb wohl pflicht.

Da haste aber die Zeit verschlafen.


Ergänzung ()

R4sh schrieb:
HisN jetzt mal eine Frage von mir. Bringt mehr RAM immer was egal ob man es ausnutzen kann oder nicht ? weil wenn du dir 128gb holst:freaky: muss du das auch auch voll ausnutzen können ;)

Es bringt immer einen Zeit-Gewinn. Immer.
Denn .. was im RAM liegt muss nicht von der SSD/HDD geholt werden. Und das RAM ist um Welten schneller als eine SSD, sowohl im Transfer wie auch im Zugriff.
Und wenn Du mal überlegst was Du den ganzen Tag am PC machst, da werden immer die gleichen Programme/Daten geladen. Das läppert sich je länger der PC läuft.

xeonking schrieb:
natürlich nicht, auf dauer leerer ram bringt nix.

Du hast Dir Deinen Task-Manager auch nicht richtig angeschaut. Das Problem haben aber viele User. Was Du nicht nutzen kannst/willst benutzt Dein OS. IMMER (es sei denn es ist steinalt) und bis aufs letzte Byte.

Siehe: https://www.computerbase.de/forum/threads/wer-braucht-32gb-ram.1533356/#post-18133486
 
Zuletzt bearbeitet:
Also ich mache zu Hause Arbeitsbedingt regelmäßig auch mal die Berechnungen von Gensequenzierungen für Tumoranalysen. Für einen Patient kommen da nur bei kleinen Teilen des Genoms schon mal locker 40GB Rohdaten bei rum die erstmal berechnet werden müssen. Zu Hause habe ich dafür einen 5960K mit 64GB Ram und das reicht gerade mal gescheit für die Berechnung von max zwei Patientendatensätzen und dauert dann mal eben 16Stunden. Ram und alle Kerne sind dabei voll ausgelastet.
Wenn ich dann einen vollen NGS Lauf (96 Patienetsätze gleichzeitig) durchrechnen will geht das sinnvoll nur noch auf unserem großen Server an der Uniklinik, und der braucht auch locker 24h. 96 Patientenproben zu je ca. 40GB, und die Daten werden dann in vier Tumorpanels gegen etwa 40 Therapierelevante Mutationen getestet.
 
@HisN Stimmt. Momentan braucht man wohl oft schon mehr als 8gb ram.
 
Er meint die Null die du erkennen solltest.

Hab ich mittlerweile auch schon geschafft.
Aber nur mit übermäßigem hin- und herkopieren.
 
da gibt es keine null. bei mir steht " frei: 2615MB" und unter "Standby 3244MB". Ist Win10, vielleicht ist das dort anders?


von daher würde es mir nun wahrscheinlich auch nichts bringen wenn ich 16/32GB statt meiner 8GB verbaut hätte oder sehe ich das falsch?


gruß
 
Zuletzt bearbeitet:
Win10 sieht wie Win8 aus, da schaut man einfach oben rechts hin. (Speicherauslastung)



UND .. der Rechner sollte schon ein Weilchen laufen, direkt nach dem Start passiert da natürlich nix.
 
okay, dort steht das bei mir auch! aber welche anzeige ist nun richtig? das ergibt ja irgendwie keinen sinn. dort quasi vollstand anzeigen und sonst halt nicht.


gruß
 
Wieso nicht?
Du musst es nur trennen. Unten steht
In Verwendung: Das ist die Menge an Speicher, die Deine laufenden Anwendungen belegen.
Und der ganze Rest wird von Deinem OS benutzt. Das ist der Wert der hinter "im Cache" steht.
Das OS nutzt alles an RAM um Dein System schnell zu halten. Indem es Daten/Programm die Du schon mal von SSD/HDD geholt hast im RAM vorhält, falls Du sie noch mal benutzen möchtest.
Hinter Verfügbar steht dann der Wert, den Windows sofort für Dich verfügbar machen kann, falls Du es brauchen solltest. Wenn nicht bleibt diese Menge beim Cache.

Deshalb läuft z.b. der Mapchange auf Systemen mit viel RAM schneller als auf Systemen mit wenig RAM.
Oder Photoshop startet beim 2. mal in der Hälfte der Zeit.

Viel RAM gibt IMMER eine Zeit-Ersparnis.
 
Zuletzt bearbeitet:
bei der ganzen Diskussion hier bekomm ich doch tatsächlich gerade Lust, mein Sys auf 48GB zu erweitern :D aber jetzt noch in DDR3 zu investieren is halt wirklich iwie nicht so sinnvoll...
 
Hab "nur" 16GB, aber ich lasse fast täglich kleinere FEM-Simulationen laufen und manchmal rendere ich ein paar Fraktale, dann ist der Speicher in Sekundenschnelle voll. Je nach Modell in Matlab auch. Der nächste PC kriegt sicher 32GB.

@ venom667: Auch ein interessanter Bereich, ich wusste gar nicht, dass sowas gemacht wird :o. Wie läuft das denn ab und was genau wird da berechnet?
 
Zuletzt bearbeitet:
Müs Lee schrieb:
@ venom667: Auch ein interessanter Bereich, ich wusste gar nicht, dass sowas gemacht wird :o. Wie läuft das denn ab und was genau wird da berechnet?

Also um das genau zu erklären müsste ich hier einen Roman von meheren tausen Seiten schreiben. Kurz lässt sich das auch nur relativ gut erklären aber ich versuche es mal.

Also der technische Ablauf ist das zuerst dem Patienten Tumorgewebe entnommen wird. Das wir dann in Formalin fixiert (wobei allerdings Fixierungsartefakte in der DNA entstehen können) und dann in Parrafin eingebettet (FFPE-Material). Davon werden 2µm dünne Schnitte angefertigt von denen einer mit HE-Färbung eingefärbt und unter dem Mikroskop der Tumoranteil im Gewebe bestimmt wird. Das ist wichtig für die spätere Analyse da der Anteil an Wildtyp Sequenzen (also gesunde DNA) und den Mutierten-Sequenzen berechnet werden muss, da nur ab bestimmten Grenzwerten eine Probe positiv ist.
Aus den Schnitten wird dann die DNA extrahiert. Dabei wird das Zellgewebe Enzymatisch "verdaut" und der Zellkern aufgespalten um reine DNA-Extrakte zu erhalten. Die relevanten Sequenzen der extrahierten DNA werden dann über eine Vielzahl von PCR (Polymerase Chain Reaction) vervielfältigt und anschließend von unerwünschten Sequenzen und Primerresten aufgereinigt.
Danach wird die DNA modifiziert und noch mit Patienten zugeordneten kurzen Sequenzen (ca 8 Basenpaare) den sogenannten Barcodes versehen. So kann der Sequenzierroboter nachher die Proben bestimmten ID-Nummern in unserer Patientendatenbank zuordnen. Dadurch ist es möglich die DNA von 96 Patienten in einem Ansatz zu Sequzieren. DIe Sequenzierung ist dabei eine abgewandelte Form der Sangersequenzierung (Kettenabbruch Methode) und nennt sich Next Generatin Sequencing (NGS) oder auch Massive Parallel Sequencing (MPS). Der Vorteil ist halt das im Gegensatz zu vor noch ein paar Jahren jetzt die Sequenzierung eines kompletten Menschlichen Genoms nicht mehr Jahre dauert und Millionen kostet, sondern alles in etwa einem Monat für ca. 100000€ machbar ist.
Die Extraktion und Behandlung der DNA dauert 3 Tage und die Sequenzierung auf dem Roboter ca 16 Stunden. Das sind dann allerdings nur Rohdaten, ca 40Gb pro Patient, und die müssen dann halt in Lesbare DNA Sequenzen übersetzt werden.
Diese Sequenzen werden dann gegen die von uns in Jahrelanger Arbeit entwickelten Tumorpanels getestet. Im Prinzip eine Sammlung aller Weltweit bekannten mutierten DNA-Sequenzen die in wichtigen Stoffwechselwegen oder Signaltransduktions Wegen von Tumorzellen für das unkonntrolierte Wachstum oder die Apoptose (Zellselbstmord) zuständig sind. Durch die Exprimierung der defekten Sequenzen werden dann z.B. defekte Bauteile von Rezeptoren wie z.B. Tyrosinkinasen im Epidermal Growth Factor Receptor (EGFR) in die Zelle engebaut usw. Dadurch kann dann Krebs entstehen wenn die Zelleigenen Reparaturmechanismen versagen.
Durch den Vergleich der Patientenproben mit der Datenbank kann man anschließend in der Auswertung genau sagen welche Art von Mutationen, zu welchen Prozentanteilen, im Tumor vorhanden sind und ob er mit gezielter personalisierter Therapie behandelt werden kann. So kann man z.B bei einer aktivierenden Mutation im EGFR-Rezeptor eines Pulmonalen Adenokarzionms der Lunge, den Patienten mit einem Tyrosinkinase-Inhibitor behandeln. Das erspart dann eine schmerzhafte und vielleicht unnütze Chemo. Solange der Patient keine Resistenz entwickelt kann er sogar geheilt werden. Die Prozentzahl ist allerdings sehr gering.
Man kann Patienten also Zielgerichtet behandlen sofern denn eine Therapieoption besteht. Früher blieb einem bei Krebs halt immer nur die Chemo-Keule. Noch ist das alles sehr viel in Studien und steht am Anfang aber bei 50% der Patienten erhöht die Behandlung das PFS (progression free survival) um über 100%. Allerdings momentan nur bei ganz Speziellen Tumoren mit Mutationen in Pathways in die man mit Medikamenten eingreifen kann. Allerdings hatten wir auch schon eine 70 Jährige Patientin (Nichtraucherin, ganz wichtig) mit Lungenkrebs und über 80 Metastasen die vollständig geheilt werden konnte.
Das teuerste sind die verwendeten Reagenzien und die benötigten ich sage mal Verschleißteile des Roboters und die Wartungsverträge für die ganzen Geräte und die Software-Lizenzen. Die Server sind da nur Peanuts. Alleine die Kosten für eine Patienten sind da bei ca. 50000€, die anschließende Behandlung nicht mitgerechnet. Wir sind an der UK-Köln auch momentan noch die einzigen Europaweit die solche Analysen durchführen können, weswegen wir dementsprchend viel Proben vom allen möglichen Krankenhäusern zugeschickt bekommen. So langsam wird das ganze ein Logistischer Alptraum, weswegen wir schon seit längerem Schulungen für andere Krankenhäuser geben.
Hoffe das war einigermaßen verständlich.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben