News S3 bringt GPGPU-Programm für schönere Bilder

@M.D. Geist
Ich denke DVP hat verstanden worum es geht und eigentlich ist offensichtlich auf wen und was er sich bezieht. ;)

1200dpi ohne Bezug zur Ausgabegröße sagt übrigens nichts aus. Auf Anhieb kann ich mir auch nicht vorstellen, wofür man so eine hohe Auflösung während der Bildbearbeitung benötigt?
So einfache Filter wie die von S3 genutzten(Sättigung, Level, Spiegeln, Kontrast etc.) funktionieren auch per CPU Power in sehr hohen Auflösungen noch innerhalb eines Augenzwinkerns.

Esmeralda466 schrieb:
Ein Quadcore benötigt aber dafür rechenzeit, mit einer GPU geht das in ECHTZEIT.
Zusammenhang? S3 benötigt also keine Rechenzeit? ;)

Worum es S3 im speziellen geht wurde ja schon gesagt.

Falls du es noch nicht kennst, über FFDShow beispielsweise können per CPU in Echtzeit diverse Filter auf Einzelbilder über 25/s angewendet werden, ohne dass die CPU gnadenlos in die Knie geht.
 
S3 geht es gar nicht darum, ein qualitativ hochwertiges Tool zu entwickeln das mit Microsofts Office Picture Manager oder gar Adobes Photoshops gleichziehen kann, ganz zu schweigen vom Funktionsumfang.

S3 will zeigen, dass sie auch das können, was ATi und Nvidia können. Gerade nach den Treiberproblemen in den Tests ist das sicherlich gut für S3.
 
@ M.D. Geist
Der Begriff Echtzeit ist bei einem Medium das an keinerlei Zeit (Foto) gebunden relativ, ....eigenartig. ;-)

@ Knolze
Jup, das mit der "Rechnzeit" fand ich besonders genial. :-)
 
bei mir sehn meine bilder ehr schlechter aus wie ohne das programm ohne flax. ok ich hab natürlich nicht nen s3 karte aber halt über cpu laufen gelassen. 100% kauft dadurch niemand nen s3 karte! bei den cb bildern ist der effekt aber schon krass das geb ich zu!
 
DvP schrieb:
@ M.D. Geist
Der Begriff Echtzeit ist bei einem Medium das an keinerlei Zeit (Foto) gebunden relativ, ....eigenartig. ;-)

Was ist daran eigenartig?
Das Bild ist doch nicht an die Zeit gebunden, sondern die Bearbeitung des Bildes.
M.D hat es doch schon gesagt, jeder Effekt, jedes Drehen, Filter, etc. etc. auf ein Bild anzuwenden dauert Zeit.

Ich habe auch ein paar Jahre in dem Bereich als Profi gearbeitet und Bilder mit einer Größe von mehreren hundert MB sind keine Seltenheit. Die 6 bis 10MB pro Foto, die der Laie zu Hause hat ist Kinderkram. Da schafft jede aktuelle CPU jede Bearbeitung in Echtzeit, oder zumindest im Sekundenbereich.
Versuche aber mal ein Bild mit 600MB mit Filtern und Effekten zu versehen, dann weisst du was Echtzeitbearbeitung von Bildern für Vorteile hat.

Andy
 
Das ist mit jedem Open-Source Bildbearbeitungsprogramm mindestens genauso schön möglich. Selbst mit einem Duron oder Celeron :freak:
 
Andy_K schrieb:
Was ist daran eigenartig?
Das Bild ist doch nicht an die Zeit gebunden, sondern die Bearbeitung des Bildes.
M.D hat es doch schon gesagt, jeder Effekt, jedes Drehen, Filter, etc. etc. auf ein Bild anzuwenden dauert Zeit.

Richtig und nachdem ein Bild keinen eigenen Zeitlichen Ablauf hat, gibt es kein Echtzeit. So einfach ist das. Man könnte das bei Effekten wie drehen maximal an der Bildwiderholrate festmachen wobei dann Echtzeit 60 Aktualisierungen in der Sekunde wären. Wobei Echtzeit im eigentlichen Sinn in der Bildbearbeitung auch dann erreicht wäre wenn dir das Programm sagt, dass der Effekt in (beispielsweise) 5 Sekunden berechnet sein wird und dies tritt auch tatsächlich ein. Ein Drehvorgang ohne Zeitangabe wäre nur dann in Echtzeit wenn sich die Bewegung des Bildes perfekt wie meine Bewegung der Maus verhält, was natürlich auch sehr theorätisch ist.

Falls es einige noch nicht verstanden haben oder auch nicht vestehen wollen: Echtzeit als Begriff zu verwenden nur weil die Berechnungszeit verhältnismäßig kurz ist (oder sogar einfach nur kürzer als erwartet), ist eben nicht richtig.

Andy_K schrieb:
Versuche aber mal ein Bild mit 600MB mit Filtern und Effekten zu versehen, dann weisst du was Echtzeitbearbeitung von Bildern für Vorteile hat.

Ach das wäre ein Vorteil? Das is ja mal mehr als logisch! Aber bitte melde dich bei mir wenn die Zeit gekommen ist, dass man jedes Bild mit 600mb mit jedem Effekt oder sogar mehreren in (dem was ihr) Echtzeit (nennt) berechnen kann. Über welche Utopien wird hier eigentlich diskutiert?

P.S.: Warum will mir immer jeder erklären, dass Bildbearbeitung teilweise komplexe Prozesse und Effekte verlangen die nicht innerhalb eines Augenschlags erledigt sind? Ich weiß das und habe vermutlich schon mehr in Sachen Grafik und Fotografie gemacht als der eine oder andere hier der mir jetzt erklärt wie sich die Sache tatsächlich verhält. Soll schonmal vorgekommen sein, dass ich mehr als eine Stunde auf den Output einer einzigen Grafik gewartet hab :-)
 
Zuletzt bearbeitet:
alles in allem ein erfreulicher bericht, da ich S3 wirklich chancen zurechne wenn es nicht um den gaming-markt geht !

das einzige was ich zu beanstanden hab is ein kleiner schreibfehler (der mich eigentlich ja nicht stört, ich will euch nur drauf aufmerksam machen)

"Nachdem ATi und vor allem Nvidia in diesem Bereich aktiv sind, kommt nun auch der kleiner Hersteller S3 Graphics dazu."
 
Macht ja keinen Sinn sich über begrifflichkeiten zu streiten, wenn das program um das es hier geht bereits bei lächerlich geringen 11k x 17k pixelns abstürzt...

Wozu ein GPU bearbeitungsprog, das mit den großen Bildern die dringend GPU support bräuchten eh seinen dienst verweigert?


Für 1 megapixel gedöhns reicht jede CPU locker aus !

Achja und HD Video bearbeitung istn schlechter vergleich. X mal 1920*1080 zu berechnen ist wesentlich einfacher als einmal 19k x 10k. Fängt ja schon beim bloßen darstellen an (der arme ram) ...
 
sowas will ich mehr von s3 lesen :) nicht dass ich einen großen sinn darin sehe, weil die karten einfach nicht performant genug für dieses einsatzgebiet sind, aber s3 braucht dringend publicity um nicht vom markt zu verschwinden...
ich hoffe, dass s3 ein wenig an marktanteilen zulegen kann. und solche technologien sind alle male gute werbemöglichkeiten für komplettrechner von mediamarkt und co ;)
mehr präsenz im oem-markt wäre ideal für s3...
 
Zurück
Oben