News Erste 64-GB-SDXC-Karte von Toshiba

tja wahr wohl klar, dass die SD HC nicht lange leben wird:
SD: bis 2 GB
SDHC: 4 bis 32GB
SDXC: 64GB bis 2048GB

ich frage mich was für nichts-wissende entscheider den SD HC standard rausgebracht hat. das war wahrscheinlich derjenige, der einmal "niemand wird je mehr als 640kb brachen" sagte. (ich meine damit nicht Billl Gates, der hat das nicht gesagt) 4 bis 32GB ist lächerlich, das war von anfang an klar, dass dieses standardchen nicht lange leben wird.

das war bei IDE und HDD genau so, bis die hersteller es nach 5 jahren endlich geblickt haben. erst als 48bit LBA adressierung standardisiert wurde, können jetzt festplatten bis zu 144,000,000 gigabytes groß werden. das limit ist quasi nicht mehr vorhanden.

lieber hätte der SD konsortium SDXC gleich bis 1 paar petabyte spezifiziert. das wäre dann endlich auch ein standard gewesen, der vielleicht länger als paar jahre lebt. 2TB ist viel aber irgendwann dürfte auch dann schluss sein.

übrigens die 60MB/s zum PC bekommt man nur mit USB 3.0, da fast alle cardreader intern mit USB (noch 2.0) mit dem PC verbunden werden. also aktuell kommen max 35MB/s aus den kärtchen raus.
 
Zuletzt bearbeitet:
@Schnitz

ich merks auch immer wenn ich zb mal XP aufn Stick ziehe, hab ich nuelich grad auch wegen nem Netbook, und das dauert ca 4 mal so lange wie Win7 aufn Stick zu ziehen. Sind zahllose kleine Dateien. Da hat sich aber viel getan.

Und wie gesagt, du bist die Minderheit. Würdest dir nicht eher erstmal ne richtig schnelle interne ssd kaufen? Da hält au keine SD mit...
 
Nunja, da muss sich der Markt der zif-ssds erst noch entwickeln, obwohl man mittlerweile ja schon was brauchbares bekommt, bloß wenn dann minestens 120gig, aber die kosten dann doppelt so viel wie mein netbook neu^^

Ich weiß, dass ich zur minderheit gehöre, damit habe ich aber doch wieder mehr zu melden als alle anderen in der BRD oder? :lol:
 
yurij schrieb:
... "niemand wird je mehr als 640kb brachen" sagte. (ich meine damit nicht Billl Gates, der hat das nicht gesagt) ...
Naja, es war ein Microsoft-Mitarbeiter in einer Pressekonferenz und er hatte damit absolut recht - er hat mit seiner Aussage bis heute tatsächlich recht behalten - denn er sagte in etwa: "niemand wird mit diesem Betriebssystem jemals mehr als 640 KiB RAM brauchen" mit "diesem Betriebssystem" war MS-DOS 1 oder MS-DOS 2 gemeint und tatsächlich hat bis heute niemand jemals daran gedacht MS-DOS 2 auf einem Rechner mit mehr als 640 KiB RAM zu installieren. Mit MS-DOS 3 wurde Highmem.sys eingeführt und das war immernoch lange bevor sich ein Bürorechner mit mehr als 640 KiB RAM gelohnt hatte. Die ganzen tollen Sachen, die Unix damals schon konnte, waren auf einem Client-Computer sehr hinderlich, weil sie selbst auch mehr RAM und mehr Prozessorzeit brauchten - so musste bspw. im AmigaOS das Präemptive Multitasking für den Spielemodus abgeschaltet werden, da die Amiga mit Präemptivem Multitasking in Spielen nicht so viel schneller war, als ein C-128, obwohl ihre reine Hardware-Leistung sehr viel besser war. Das damalige Statement bzgl. der 640 KiB RAM ist also immernoch genauso wahr, wie wenn AMD heute zu der Beschränkung der aktuellen AMD64-Prozessoren auf einen 48b breiten Adressraum (also weniger als die 64b, die von der Software, die er ausführt, unterstützt werden), sagen würde, dass niemand jemals auf einem Phenom II Prozessor mehr als 256 TiB RAM brauchen würde. ;)
 
yurij schrieb:
tja wahr wohl klar, dass die SD HC nicht lange leben wird:
SD: bis 2 GB
SDHC: 4 bis 32GB
SDXC: 64GB bis 2048GB

ich frage mich was für nichts-wissende entscheider den SD HC standard rausgebracht hat.
Was ist dein Gegenvorschlag? Man hat eben ein Dateisystem eingesetzt was überall funktioniert.

Immerin gibt es den Standard schon seit 2006 und er wird die nächsten 2-3 Jahre auch Standard bleiben.
Bis mehr als 32GB breitflächig genutzt werden dauert es noch.
 
bensen schrieb:
... Man hat eben ein Dateisystem eingesetzt was überall funktioniert. ...
Sagen wir mal, man glaubte das gemacht zu haben. Seit Microsoft TomTom in den USA angeklagt hat, weil sie keine FAT-Lizenzen für die Nutzung von FAT in allen TomTom-geräten zahlen, sollte man FAT32 nicht mehr als überall verfügbares Dateisystem sehen. Microsoft hat öffentlich gesagt, dass sie nicht gegen Linux oder Distributoren von kostenlosen Linux-Distrbutionen klagen wollen, um zu versuchen damit alle zu beschwichtigen, aber dass rechtlich Microsoft nach wie vor jedem untersagen darf FAT zu nutzen, macht dieses Dateisystem meiner Meinung problematisch und damit ist auch die Entwscheidung, auf SDXC exFAT zu nutzen, meiner Meinung traurig. Solange Windows seine IFS-Schnittstelle hat, darf jeder zusätzliche "native Dateisysteme" für Windows schreiben, damit sie im Kernelspace laufen dürfen, braucht man zwar eine Zertifizierung von Microsoft, aber i m Gegensatz zur Nutzung von FAT, könnte man die als Industrie-Konsortium jederzeit durch die Kartellbehörde verangen und nach EU-Wettbewerbsverfahren zu Serverschnittstellen ist ziemlich klar, dass microsoft andere von IFS nicht ausschließen darf - deswegen hat Ext2IFS auch seine Microsoft-Zertifizierung für die Vista-Kernel-Protection. Ich halte es im Gegensatz zu vielen anderen nicht für ausgeschlossen, dass Microsoft exFAT irgendwann mal zu freier Software macht (siehe auch Linus Torvalds: "Microsoft hatred is a disease"), aber solange das nicht in direkter Aussicht steht wäre es vielleicht sinnvoll, wenn sich Embedded-Software-Entwickler zusammenschließen um ein eigenes Dateisystem für Kleingeräteflashspeicher zu entwickeln, das sie zu einem Industriestandard machen (ISO oder vergleichbar - es muss ja nichtmal freie Software sein), um festzuzementieren, dass die Nutzung nicht verboten werden darf (was bei FAT32 und exFAT nicht der Fall ist) und dann mit finanzieller Unterstützung aller Kleingeräte-Software-Unternehmen eine Portierung dieses Dateisystems an die Microsoft-Windows-IFS-Schnittstelle starten - klar, ein Embedded-Software-Unternehmen allein kann sich das vielleicht nicht leisten, aber alle zusammen sicherlich locker.
 
Ja gut sagen wir mal so. Es war eben sehr gut verbreitet und fast überall nutzbar.
Es ist eben nicht so leicht ein neues Dateisystem durchzudrücken. Wenn die breite Masse die Karten nicht ohne weiteres lesen kann ist das ein Problem.
Von da aus war FAT32 damals keine schlechte Entscheidung.

Ein freies Dateisystem ist natürlich die bessere Wahl. Nur muss man eben dort Sorge tragen dass das dann auch überall problemlos und ohne Aufwand funktioniert.
Wir leben nun mal (leider) in einer Windows Welt. Fast jeder nutzt es. Und in der Entwicklung wird dort das Augenmerk gelegt.
 
@M.E.: Das stimmt ich wahr auch mal stolz auf eine 128MB SD und CF Karte udn jetzt kann ich ein GB hinten draus machen^^
 
bensen schrieb:
...
Wir leben nun mal (leider) in einer Windows Welt. Fast jeder nutzt es. Und in der Entwicklung wird dort das Augenmerk gelegt.
Deswegen habe ich ja darauf hingewiesen, das die IFS-Schnittstelle auch in Vista und 7 grundsätzlich immernoch vorhanden ist und auch GPL-Software wie Ext2IFS ein Zertifkat hat um auch mit aktivierter Windows Kernel Protection im Windows-Kernelspace zu laufen - es ist kein großes Problem ein neues Dateisystem auch auf Windows zu portieren (wie nicht nur das Freizeitprojekt Ext2IFS, sondern auch MacDrive und Paragon beweisen), wenn man will, es will nur niemand.
 
Zuletzt bearbeitet:
Öhm... Leseraten von bis zu 60MB/s? Wie haben die das ermittelt?

USB 2.0 = max. 480MBit/s entspricht 60MB
Hierbei geht jedoch einiges allein für die Controllersteuerung verloren, zudem ist mir kein USB-Host-Adapter bekannt, der in der Lage ist, wenigstens 50MB/s transportieren zu können.

Gibts denn schon USB 3.0? Geschweige denn entsprechende SD-Karten Lesegeräte?

Cya, Mäxl
 
@Mountwalker
Du hast die Intention meines Satzes falsch aufgefasst.
Eben weil die halbe Welt Windows nutzt, schert sich keiner um den Rest. Das es möglich ist wollt ich nicht bestreiten.

Aber ganz so einfach ist es auch nicht.
Von Haus aus würde Windows ein neues Dateisystem nicht unterstützen. Für den gemeinen User schon fast ein mittelschweres Problem. :D

@DJMadMax
Ist USB die einzige Schnittstelle die es gibt?
 
Nein, diesen Aspekt habe ich verstanden - es geht mir um die Windows IFS Schnittstelle - die ist in Windows verfügbar, nicht beim Rest. Der Punkt dabei für die Gerätehersteller ist nicht (nur) kompatibel zu anderen Desktop-Syswtemen als Windows zu werden, sondern selbst keine FAT-Lizenzen zahlen zu müssen. Deswegen ja auch mein Verweis auf TomTom - die werden nicht von microsoft verklagt, weil sie Linux unterstützen (würden), sondern weil sie FAT32 nutzen ohne an Microsoft dafür hohe Lizenzgebühren abzudrücken. ;)
 
biosmaster007 schrieb:
Das SDXC Karten funktionieren bezweifle ich aber stark.

Das bezweifle ich auch; die Frage ist aber, ob sich das per Firmware-Update beheben lässt (und ob Canon dies tut).

Die 450D ist die schnellste DSLR von Canon die auf SD-Karten speichert, sie macht max. 3,5Bilder/s.

Die 500D macht das gleiche Tempo, aber bei 15MPix, also nochmal 25% mehr.

Je nach Motiv kann ein JPEG-Bild bis zu ca. 8MB groß werden.
8MB * 3,5 macht dann 28MB/s.

Wen interessieren die JPEGs? EOS 1000D, für RAW+JPEG durchaus mal bis zu 20MB (bei nur 10 MPix!). Das ganze mit rund 3 Bildern/s -> wenn die Karte 60MB/s macht, bremst sie nicht mehr :D

Was eine EOS 5D Mark II mit ihrem 20 MPix-Sensor und fast 4 Bildern/s vollschreibt, will ich lieber gar nicht wissen ;)

Und wie hier schon gesagt wurde spielt die Dateigröße ab welcher die Datenrate erreicht wird für diesen Verwendungszweck so gut wie keine Rolle!

ACK. Selbst meine alte 3,2 MPix-Kamera (die leider keine Karten >512MB frisst) produzierte seltenst mal ein Bild unter 1 MB - und da sind dann schon alle "Problemgrößen" überschritten.

Thema EOS 60D: CF+SD hat schon deren direkter Konkurrent Nikon D300s, insofern würde mich selbiges nicht wundern. Den 15MPix-Sensor wird man dagegen wohl beibehalten - warum den eh schon auslösungsstärksten APS-C-Sensor austauschen und damit der doppelt so teuren KB-Kamera aus eigenem Hause Konkurrenz machen? Ansonsten kommt garantiert Video (hat die 50D ja noch nicht) und wohl einiger Kleinkram. Das Problem is halt, dass die 50D schon fast perfekt ist ;)
 
Zuletzt bearbeitet:
es geht hier bei den sd karten nicht um das datei-system, sondern um die adressierung. SD standard arbeitete noch mit direktadressierung, jeder byte konnte separat addressiert und ausgelesen werden.
das macht bei heutigen süeichergrößen keinen sinn mehr, weil adressregister zu breit werden.

bei SD HC werden erstmal blöcke adressiert. genau hier wurde der standard unzureichend spezifiziert wie ich finde. hätte man 4k blöcke mit der selben adressbreite wie bei SD (classic) verwendet, wären maximal 8 Terrabyte z.b. möglich. der standard würde länger leben und alle zufriedenstellen. so eine notgeburt wie sd xc wäre nicht nötig.

ich würde sogar sagen, dass sd karten mit dem aktuellen physikalischen volumen garnicht mehr 8 terrabyte erreichen können, weil das herstellungsverfahren physik-bedingt strukturen unter ~5nm nicht mehr schaffen kann. vielleicht mit quanten-flash chips ;) aber da reden wir lieber erst in 50 jahren darüber.
 
Zuletzt bearbeitet:
TheK schrieb:
Was eine EOS 5D Mark II mit ihrem 20 MPix-Sensor und fast 4 Bildern/s vollschreibt, will ich lieber gar nicht wissen ;)

Die speichert auch auf CF-Karten, die aktuell mit UDMA ca. 45 MB/s schaffen...
 
TheK schrieb:
Das bezweifle ich auch; die Frage ist aber, ob sich das per Firmware-Update beheben lässt (und ob Canon dies tut).



Die 500D macht das gleiche Tempo, aber bei 15MPix, also nochmal 25% mehr.



Wen interessieren die JPEGs? EOS 1000D, für RAW+JPEG durchaus mal bis zu 20MB (bei nur 10 MPix!). Das ganze mit rund 3 Bildern/s -> wenn die Karte 60MB/s macht, bremst sie nicht mehr :D

Was eine EOS 5D Mark II mit ihrem 20 MPix-Sensor und fast 4 Bildern/s vollschreibt, will ich lieber gar nicht wissen ;)
Daran hatte ich noch gar nicht gedacht, danke für diesen Punkt, dass stimmt natürlich.
Aber mal zusätzlich in den Raum werf, haben die Kameras nicht einen Zwischenspeicher um die Bilder zunächst aufzufangen zB bei Serienbildern?
Meine neue 500D macht ja ebenfalls Raw und Jpeg zusammen falls geünscht, das würde wahrscheinlich auch manche SDHC-Karten in Probleme bringen oder? Canon kann ja nicht voraussetzen, dass man automatisch eine Karte zB von SanDisk ( ~30Mbsec ) sich gleich gönnt, gibt auch Class6 Karten mit wesentlich weniger Speed.
 
ist doch alles verarsche...hätten die sdhc bereits auf 2TB oder sinnvoller auf 2EB "dimensioniert" könnte man die neuen karten nun auch im alten gerät lesen -dafür nicht so schnell beschreiben. so muss was neues her.

bei CF karten hat man diese probleme nicht. eigentlich mag ich cf nicht, aber das tolle bei den karten ist, dass nahezu jede in jedes gerät passt und auch funktioniert.

@BustaFiles ja den haben sie und ist der erstmal voll ists aus mit den schnellen bildfolgen. bei jpeg können manche karten die max.geschwindigkeit bis zum ende des speicherplatzes halten, bei raw aber nicht.
 
Zuletzt bearbeitet:
@yurij: Da weis man auch wo die Kapazität aufhören wird bei SSD. 2,5 Zoll Kann man von 50 bis vielleicht 80TB ausgehen. HDD würde dann um das 3-5 fache mehr sein/schaffen.
 
@fjmi
Compact Flash hat das gleiche Problem.
Alte Geräte kommen auch nicht mit FAT32 klar. Somit kann man da auch keine neuren CF-Karten nutzen.
 
bensen schrieb:
@fjmi
Compact Flash hat das gleiche Problem.
Alte Geräte kommen auch nicht mit FAT32 klar. Somit kann man da auch keine neuren CF-Karten nutzen.

mag sein, aber mechanisch passten sie und es gab durchaus firmwareupdates die auch größere karten erlaubten. abgesehen davon betraf das schon damals nur eher die älteren kameras, meine ist aus 2005 und kommt damit problemlos klar.
 
Zurück
Oben