News Apple: Auch der Mac Pro bietet keine 10-Bit-Farbwiedergabe

Entweder sie werden das als teures Upgrade anbieten oder es kommt als amazing awesome magic new im nächsten OS da es nun ja für "jedermann" bekannt ist
 
@Hellsfoul:
Dank dir, Schule ist schon lang her.*grins* Deutlich würde ich nicht sagen, aber beim genauen Betrachten fallen einem die Abstufungen auf. Mich würde interessieren, ob 1Mrd. Farben dagegen perfekt ist.

Den Alphakanal nutzt man recht häufig in Photoshop, um die Transparenz von Grafiken sichtbar werden zu lassen.
maxik schrieb:
Entweder sie werden das als teures Upgrade anbieten oder es kommt als amazing awesome magic new im nächsten OS da es nun ja für "jedermann" bekannt ist
Ich glaube, das betrifft eher die gesamte Branche und die GPU-Hersteller, tut mir Leid, dass ich deine Propaganda beenden muss. Ich kann mir jedenfalls nicht vorstellen, dass die GPU-Hersteller ein Kaufargument einfach so fallen lassen werden ohne Alternative. Weniger Vorteile bedeutet weniger Umsatz ergo bricht die Sparte mehr oder weniger ein.
 
Zuletzt bearbeitet:
Tja da hat die Mär vom Professionellen arbeiten geht nur mit Apple ja mal wieder richtig gefruchtet, aber nicht falsch verstehen das ist jetzt keine neue Erkenntnis - das war ja noch nie (seit Umstieg auf x86) der Fall.
 
estros schrieb:
Das müsstest du nochmal genauer erklären, weshalb die Treiber inkompatibel sind.
Nö, muss ich nicht. Weil ich gar nicht davon gesprochen habe...

Zur nativen Installation: man schaue mal hier ein: https://www.computerbase.de/forum/t...-als-dual-boot-im-nativen-uefi-modus.1322925/
Kann ich mir sicherlich nicht ansehen, da ich über keine passende 10bit Hardware verfüge. Oder was meinst du?
Doch, kannst du anschauen - die Unterschiede werden verstärkt wiedergegeben.

Und dann lies mal den Heise-Artikel, auch mit den nicht direkt von Apple ausgelieferten Treibern geht 10bit nicht, die Option lässt sich nicht anwählen.
Daher ja die Frage, ob es mit nativer Installation eines alternativen OS auf dem UEFI (ohne Bootcamp, ohne emulierten BIOS) geht. Vielleicht nicht, weil Apple die Firmware der FirePros geändert hat? Und dann wäre die Frage, ob man die überhaupt flashen kann.
 
Warum sollten Sie das auch anbieten?

Es ist nun mal Apple mit dem Ziel die Wertschöpfungskette auszunutzen wie es eben geht. Und da Ihr eigener Monitor(Thunderbold Display 27") nur max 16 Mio Farben anzeigen kann sehen Sie da kein Handlungsbedarf. Und den sehr teuren Sharp für 3800€(laut Apple Store) zu supporten macht keinen sinn.
 
sLyzOr schrieb:
Und nachdem die FirePros auch woanders verbaut werden, gibt es für andere Betriebssysteme als OS X (d.h. in erster Linie Windows) auch offizielle Treiber.
Die Treiber bekommst du aber nur von apple. Und genau dort gibts die funktion für 10 bit nicht. Und nur die Traiber von AMD zu installieren dir da nicht helfen.

Ja, Windowstreiber gibt es nur von Apple. Oder so...
 
Tranceport schrieb:
Hmm, einerseits klingt das schon unglaublich bei einem Gerät, dass sich an Profis richtet, die eben viel mit Grafik/Video zu tun haben.
Auf der anderen Seite: wenn es so wichtig ist, warum ist es dann erst der C´t aufgefallen?


...das ist eben der Punkt.... 10bit schön und gut ... aber wer das wirklich produktiv nutzen will darf nach quasi jedem Patchday erstmal intensiv testen ob noch alles geht. Da ich selbst "professionelle" Bildbearbeitung am PC / Mac mache kann ich dazu nur sagen das ich bisher 10bit nie vermisst habe ... wofür auch ? Hier wird mal wieder ne Mücke zum Elefanten gemacht ... haben wir schon das Sommerloch... ?
 
@estros

Das Beispielbild ist irrelevant, da es eigentlich 8 vs 6 bit zeigt, wenn das Ausgabegerät ein Grösseres Farbfeld abbildet als sRGB sieht man den Unterschied Farbfehler, sonnst aber nicht. Gerade beim Bsp sieht man der Mensch kann die 40 graustufen gerade noch so erkennen, bei den oberen 8bit verlauf sieht er jedoch kein unterscheid mehr. 10 Bit ist daher genauso relevant wie 4k @4" für dne Kunden irrelevant.
 
Andy_K schrieb:
Schau dir das Vergleichsbild bei heise an

das Bild ist doch nicht realitätsnah,
ich habe hier ein test bild und da sieht man unter 8bit HD7970+ u2515h keine streifen in den graustufen.
 
Die Anzahl an Monitoren die tatsächlich 10bit unterstützen ist extrem gering..Ich wage fast zu bezweifeln das mehr als eine Handvoll von Leuten tatsächlich ein Problem haben.
 
Das ist ein ARtikel auf BILD-Niveau um unsere Meinung gegen die bösen Apple zu bilden.

Whoracle hat vollkommen Recht, die meisten Monitore können kein 10bit, vor allem wenn gedruckt werden soll ist auch schnell eine Grenze erreich.

Das Bild das gepostet wird ist TOTALER QUATSCH. Wer das glaubt dem ist nicht zu helfen, aber es gibt immer Dumme die sich ein Bild auf ihrem Monitor ansehen der nur 8bit kann mit gpu die nur 8bit kann und dann sagen oh wow 10bit ist ja toll.
 
Da Adobe laut News keine 10 Bit auf Apple macht, frage ich mich, ob Adobe 10 Bit auf Windows kann. Ich meine, wenn man 10 Bit haben will, nimmt man einfach Adobe auf Windows. Nur weil Apple das nicht kann, muss man es nicht gleich schlecht machen.
 
Whoracle schrieb:
Die Anzahl an Monitoren die tatsächlich 10bit unterstützen ist extrem gering..Ich wage fast zu bezweifeln das mehr als eine Handvoll von Leuten tatsächlich ein Problem haben.
Dem kann ich nur zustimmen. Auch mein alter & kleiner Sony KDL 40W4000 war einer der wenigen mit einem 10bit Panel. Bei der Masse sind 8Bit einfach der Standard. Meist sind die Geräte auch nicht ganz billig. Zudem habe ich das Gefühl, dass nach einem kurzeitigen Anstieg vor einigen jahren, die 10Bit Display's wieder Mangelware geworden sind.
 
~purplet~ schrieb:
Das ist ein ARtikel auf BILD-Niveau um unsere Meinung gegen die bösen Apple zu bilden.

Das sehe ich komplett anders. Erstens ist heute Apple fast immer der Liebe, und die andern die Bösen. Zweitens macht es mMn schon einen Unterschied ob nun 32 oder 24bit. Leider gibt es jedoch nur sehr wenige Programme welche dies auch nutzen können.
 
Whoracle schrieb:
Die Anzahl an Monitoren die tatsächlich 10bit unterstützen ist extrem gering..Ich wage fast zu bezweifeln das mehr als eine Handvoll von Leuten tatsächlich ein Problem haben.

Die Anzahl an Personen welche sich für 3000€ einen MacPro kaufen ist noch viel geringer. Aber jene welche dies tun arbeiten häufig in Bereichen in denen farbpräzises Arbeiten ein Muss ist. Und da verkackt der MacPro dann auf ganzer Linie, obwohl die Hardware das problemlos reissen könnte.
Du hast das schon richtig erkannt, die meisten Nutzer, egal ob Hobby-Photographen oder "gamer" oder sonstwas brauchen das nicht. Wer sich von denen einen MacPro für 3000 Flocken kauft hat aber sowieso einen Sockenschuss.
Wenn ich mir eine "profi"-workstation kaufe erwarte ich gewisse Fähigkeiten damit einhergehend, zumal die Fire-GPUs im MacPro problemlos mit 10bit pro Farbkanal umgehen können.

P.S.: Monitore welche davon profitieren können sind keine Sonderanfertigungen für zehntausend Euro. Für ~1000 bis 2000€, je nach Größe, hast Du die volle Auswahl. Wenn Du auch mit kleineren Diagonalen auskommst sind diese Monitore auch für jeden Heimanweder bezahlbar.

http://geizhals.de/hp-dreamcolor-z24x-e9q82a4-e9q82at-a1108647.html?hloc=at&hloc=de
 
Googlook schrieb:
Das sehe ich komplett anders. Erstens ist heute Apple fast immer der Liebe, und die andern die Bösen. Zweitens macht es mMn schon einen Unterschied ob nun 32 oder 24bit. Leider gibt es jedoch nur sehr wenige Programme welche dies auch nutzen können.
Was soll ich da sagen? Es gibt fast keine Geräte die 10bit Kanäle abbilden, 32bit wird sowieso genutzt (3*8+8bit alpha) und du wirst nur sehr schwer einen Unterschied feststellen.

Apple ist nirgens der LIebe, in Foren mit Selberbaugeeks nicht und bei golem, heise und CT schon garnicht.

PS: Zum Thema, sobald 10bit relevant wird bringt Apple nen Treiber raus und fertig...die Hardware unterstützt es ja.
 
Zuletzt bearbeitet:
estros schrieb:
Mich würde interessieren, ob 1Mrd. Farben dagegen perfekt ist.

Du hast dann 2^10=1024 Abstufungen bei weiß zu schwarz. D.h. man hat 4x soviele Abstufungen. Ich denke mal perfekt wirds nicht, da dann bei einem normalen HD Display immer noch doppelt soviele Pixel in der Breite vorhanden sind als Abstufungen.
Es wäre aber schon mal ein riesen Fortschritt. Was auch noch wichtig ist zu wissen: Viele Displays können nicht mal 8bit pro Farbe darstellen. Vor allem TN Panel schaffen nur 6bit = 64 Stufen. Es gibt dann je nach Display Verfahren um das abzuschwächen. Bei manchen Displays wird so immer zwischen den beiden angrenzenden Farben hin und her geschaltet (so ne Art PWM praktisch). Bei anderen wird Dithering verwendet. D.h. es wird versucht mit Veränderung der Helligkeit von angrenzenden Pixeln, die einen besseren Farbverlauf zu erzeugen. Dazu können die Pixel sogar einen anderen Farbton erhalten. Also ist dann zB ein Teil des Farbverlaufs leicht blau oder gelb. Zudem sind dann die Linien zwischen einer Helligkeitsstufe zur nächsten ausgefranst. Das kennst Du vielleicht noch von den animierten Gifs mit nur 256 Farben insgesamt. Da sieht man das Dithering deutlich.

Ich hoffe es war für alle verständlich.

Mein 7 jahre altes Notebook Display hat glaub ich keine der oben genannten Technicken. Da kann man schön die 64 Stufen von weiß nach schwarz durchzählen.
 
10Bit Monitore sind nun wirklich nicht mehr teuer. Alle Eizo Color Graphics - Modelle sind über Display Port 10Bit tauglich. Das günstigste Modell ist der CS230 und den bekommst du auch schon für 500€.
Man müßte mal testen wie sich die FirePros in einem Windows PC verhalten.
 
Bitte das ist doch bereits seid Jahren bekannt, das Apple das nicht unterstützt. Warum wird da jetzt auf einmal so ein Wirbel drum gemacht? Die jenigen die wirklich eine exakte Farbtreue für ihre professionellen Arbeiten brauchten haben daher noch nie darüber nachgedacht ins Apple Lager zu wechseln. Schließlich haben sie ja auch keine passenden Bildschirme im Sortiment.
Das es aber einen bestehenden Markt gibt und gab sieht man ans den Workstation Herstellern am Markt die seid Jahren passende Monitore supporten bzw. selbst auch im Sortiment haben (z.B. HP Dreamcolor Monitore).
 
Also ich weiß nicht, wie einige hier dieses Verhalten ernsthaft verteidigen können. Ob es nun schlimm ist oder nicht, ist doch gar nicht der Punkt. Der Punkt daran ist, dass es hier um eine professionelle Workstation geht, die in Hardware problemlos 10bit könnte aber aus unerfindlichen Gründen kastriert wird.
Den meisten anderen Produkten würde dafür die Hölle heiß gemacht.

Besonders pikant ist doch, dass genau dieses Produkt eine besonders hohe Verbreitung findet und hohes Ansehen genießt, im einzigen Bereich in dem 10bit relevant sind Bildbearbeitung, Druckstufen, Kreatives, Design und Konstruktion. Daher ist die Sache absolut unverständlich.
Mit dem Mac Pro muss Apple besser sein als die Konkurrenz, weil heutzutage absolut nichts mehr für den Mac Pro spricht. Das gleiche gibt es billiger mit mehr Leistung und der gleichen oder gar besseren Software im PC Bereich. Um die nicht gerade niedrigen Preise zu rechtfertigen und vor allem die proprietäre Hardware zu verscherbeln muss der Mac Pro zu 100% das Gleiche unterstützen wie die PC Fraktion aber das ganze dann noch mit "praktischen" Funktionen wie Design und Lautstärke die in den Bereich Luxus fallen, kombinieren.
Da spielt es keine Rolle, ob das nun einen Unterschied macht oder nicht.
Es muss einfach da sein, um diese Meinung, Apple sei das einzig brauchbare im Verlagswesen/Kreativbereich oder der Bildbearbeitung, die in den Köpfen steckt überhaupt zu rechtfertigen.
Der neue MacPro ging eh schon ziemlich stark in den Bereich Blender -Design Mülltone mit Thunderbolt Ports- und brachte im Vergleich zu den Vorgängern bereits enorme Nachteile im Bereich Usability und Anpassbarkeit.
 
Zurück
Oben