• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News EA dementiert Crysis für Xbox 360

polluxXT schrieb:
Full-HD-Screens die mittels HDMI gespeist werden und einen entsprechend hochwertigen Scaler und eine sorgfältige Steuerungselektronik haben, sind wesentlich besser als dass was ein popeliger Standard-TFT und eine x-beliebige normale Graka (und ne normale unterstützt kein HDCP) je leisten werden.

Du solltest dich vielleicht erstmal darüber informieren, was HDMI von DVI unterscheidet und HDCP wird wohl kaum das Bild verbessern (außer von "schwarzer Bildschrim" auf "etwas auf Bildschirm"). Mit der Logik kann man ja Bild- und Videobearbeitung am Rechner vergessen.

Aber hier ist eh wieder das Fanboy-Gelaber ausgebrochen.
 
fandre schrieb:
Du solltest dich vielleicht erstmal darüber informieren, was HDMI von DVI unterscheidet und HDCP wird wohl kaum das Bild verbessern
Du solltest dich vielleicht erstmal informieren wozu HDCP eingesetzt wird. Mit HDCP als Teilbestandteil von AACS schützt man HD-Filme vor illegalem Abgreifen. Dass HDMI als digitales Interface mit hoher Bandbreite eine sehr gute visuelle Darstellung liefert, dürfte hinlänglich bekannt sein. DVI ist im (High-End-)Videobereich keine Größe, was eben oft mit der fehlenden Implementierung eines Schutzsystems zu tun hat. Rein technisch unterscheiden sich HDMI und DVI nicht weiter, sie basieren auf dem selben Protokoll. Ergo verstehe ich schon schon den Unterschied.

Was du jedoch nicht verstanden hast, ist meine Aussage. Ich bezog mich auf die Bildqualität, nicht jedoch explizit auf die Bildqualität von Games. Die Bildqualität von Filmen (und hier spielt HDCP sehr wohl eine Rolle) ist meines Erachtens genauso wichtig und hier schneidet ein endsprechendes High-End-Gerät deutlich besser ab als ein beliebiger Standard-PC mit Standard-TFT und Grafikkarte, wobei das Thema HDCP (siehe CT) hier zu niedrigeren Auflösungen führen kann.

Was Games anbelangt, ist das Bild in Sachen Anschlußqualität einer Konsole (PS3 über HDMI, XBox360 über YUV) einem PC immernoch überlegen, vorausgesetzt man benutzt die richtige Hardware in Form von gut verarbeiteten Kabeln. Das was viele zwischen ihren PC und ihren Monitor stecken, diese 0815-Billig-Kabel, kann da seltenst mithalten.
Aber hier ist eh wieder das Fanboy-Gelaber ausgebrochen.
Offensichtlich nicht, ich würde also vorschlagen du liest das nächste mal richtig bevor du haltlose Mutmaßungen anstellst...
 
Zuletzt bearbeitet:
Fraqq schrieb:
Es ist doch immer wieder erstaunlich wie sich einige Leute darüber freuen, dass ihr überteuerter TV jetzt bereits die Auflösung darstellen kann, die ein 15" Monitor von Alid schon vor 10 Jahren darstellen konnte :evillol:
Ja, ja, der gute Alid...:evillol:
Dann kann man sich die Bildqualität deines TVs ja vorstellen...:rolleyes:
Das glaube ich kaum.
Ich kenne keinen vernünftigen TFT-Monitor, der auch nur ansatzweise ein dermasen schlechtes Bild hat, wie ein LCD oder Plasma TV für unter 2500€. In der aktuellen PC Welt haben sie Fernseher getestet - Ergebnis: Selbst der beste TV für 2500€ von Philips hatte starke Abstriche in sachen Bildqualität - wer kauft sich so einen überteuerten Schrott? :evillol:
Oh, die PC Welt - das von Experten völlig zerrissene Magazin mit den mainstreamhaften Texten! Sorry, Herr PC-Welt-Leser, aber dieses Schmuddelheft ist fast so schlimm wie die Bild...
Echte HiFi- und HomeEntertainment-Magazine hast du wohl nie gesehen...
Boar fett Alder! Echtes HiFi! Das haut mich ja sowas von um! Und echtes HiFi gibt es ja natürlich auch nur für Konsolen... :rolleyes:
Was braucht man denn um an einen PC eine HiFi-Anlage anzuschließen? Eine Soundkarte - alles unterhalb einer professionellen Soundkarte (und damit ist auch Audigy und XFi gemeint) liefert aber eine schreckliche Qualitätsverschlechterung, auch wenn du sie an noch so gute HiFi-Systeme und Receiver hängst. Aber sowas wird ein PCler sowieso nie erleben. Er weiß ja, dass sein PC das Non-Plus-Ultra in Sachen Sound ist...(Ironie) :evillol:
 
polluxXT schrieb:
Ja, ja, der gute Alid...:evillol:

Wenn dir ein ernsthaftes Gegenargument eigenfallen wäre, dann hättest du es sicher nicht nötig gehabt, dich über Rechtschreibfehler lustig zu machen :)

Das glaube ich kaum.

Irgendwann wirst auch du lernen, dass dein "Glaube" und die Realität oft weit auseinanderliegen. :evillol:

Oh, die PC Welt - das von Experten völlig zerrissene Magazin mit den mainstreamhaften Texten! Sorry, Herr PC-Welt-Leser, aber dieses Schmuddelheft ist fast so schlimm wie die Bild...

Jaja, um die Bildqualität eines Fernsehers beurteilen zu können, muss man natürlich für eines dieser schlechtverkauften HiFi-Magazine schreiben, gell? :rolleyes:

Echte HiFi- und HomeEntertainment-Magazine hast du wohl nie gesehen...
Was braucht man denn um an einen PC eine HiFi-Anlage anzuschließen? Eine Soundkarte - alles unterhalb einer professionellen Soundkarte (und damit ist auch Audigy und XFi gemeint) liefert aber eine schreckliche Qualitätsverschlechterung, auch wenn du sie an noch so gute HiFi-Systeme und Receiver hängst. Aber sowas wird ein PCler sowieso nie erleben. Er weiß ja, dass sein PC das Non-Plus-Ultra in Sachen Sound ist...(Ironie) :evillol:


Und du denkst allen ernstes, dass der Soundchip der XBox360 einen besseren Sound an einer HiFi-Anlage produziert als eine Soundkarte im PC an einer HiFi-Anlage? Hihi, das sagt dann ja wohl alles über dich :lol:

Wach auf!
 
@ polluxXT: Es gibt keine gleitenden Framerate bei Konsolen, weil diese nicht an einem Monitor betrieben werden und V-Sync immer Eingeschaltet ist.

Um 60 fps anzuzeigen muss der Bilderzeuger mindestens 60 Hz oder ein Vielfaches davon haben, sprich 120 Hz bei einem 100-Hz Fernseher.
Bricht die Bildrate ein und 60 fps können nicht gehalten werden, fällt die Framerate auf den nächsten möglichen V-Sync Fall zurück, also 30 fps *ätsch* Das fällt extrem auf, wenn die Bildraten schwanken.
Metroid Prime läuft mit 60 fps genauso wie Mario Kart DD und GoW läuft mit 30 fps, ob Dir diese Tatsache nun gefällt oder nicht interessiert mich nicht!

Du wirst es kaum glauben, aber ich habe sogar ein 10 Meter langes billiges DVI-Kabel um meinen Beamer damit zu betreiben und es gibt weder Bildstörungen noch sonst negative Auffälligkeiten.
Liegt vielleicht daran, dass DVI Signale digitale Signale :D

Wii hängt mit Komponenten Kabel dran, gestochen scharfes Bild, jeder Pixel wird störungsfrei angezeigt! Also kannst Du Deine Aussagen zu den skurilen Gerüchten zählen.
Auf die Glühbirne hat man 6 Monate Garantie :-) Da mein Beamer festmontiert ist und keinen Erschütterungen ausgesetzt wird, denke ich schon, dass die Birne die Mindesthaltbarkeit erfüllen wird. Dann sind 5-6 Jahre rum, bis dahin wird Nintendo einen FullHD Wii anbieten und ich mir einen FullHD Beamer leisten können.

MFG

McDaniel-77

FullHD hab ich derweil auf dem PC in augenfreundlicher Grafik und hohen ruckelfreien Frameraten
 
FullHD Wii, der war gut, die Kiste hat garnicht genügend Leistung um 1080p nativ darzustellen.

@Topic: Früher oder später kommt es, EA bringt doch das Spiel nicht nur auf einem System raus, da würde man ja wertvolle Millionen verlieren...
 
Fraqq schrieb:
Wenn dir ein ernsthaftes Gegenargument eigenfallen wäre, dann hättest du es sicher nicht nötig gehabt, dich über Rechtschreibfehler lustig zu machen :)
Das musst du gerade sagen. Wieviele sinnvolle Argumente steckten denn in deinem Satzteil? Keins.
Irgendwann wirst auch du lernen, dass dein "Glaube" und die Realität oft weit auseinanderliegen. :evillol:
Die Realität einer Person die die PC-Welt für eine Referenz in Sachen HomeEntertainment hält ... Ja klasse, großes Kino! :evillol:
Jaja, um die Bildqualität eines Fernsehers beurteilen zu können, muss man natürlich für eines dieser schlechtverkauften HiFi-Magazine schreiben, gell? :rolleyes:
Schau dir mal die Messmethoden und die Praxiserfahrung dieser Magazine an. Kann da die PC-Welt mithalten? Wohl kaum. Soviel zu derer Seriosität, und auch deiner... :evillol:
Und du denkst allen ernstes, dass der Soundchip der XBox360 einen besseren Sound an einer HiFi-Anlage produziert als eine Soundkarte im PC an einer HiFi-Anlage? Hihi, das sagt dann ja wohl alles über dich :lol:
Der Soundchip der XBox360 ist wenigstens so klug, dass er ein digitales Multi-Kanal-Format weitergibt ohne es anzurühren und überlässt die Arbeit dem externen Receiver. Versuch das mal einem x-beliebigen Soundchip einer Soundkarte beizubringen... Du wirst es seltenst erleben. Aber naja, das ist sowieso zu hoch für dich...
Schlaf weiter!
McDaniel-77 schrieb:
Es gibt keine gleitenden Framerate bei Konsolen, weil diese nicht an einem Monitor betrieben werden und V-Sync immer Eingeschaltet ist.
Siehe Osmodium - dir fehlt es wirklich an einigem Hintergrundwissen.
Metroid Prime läuft mit 60 fps genauso wie Mario Kart DD und GoW läuft mit 30 fps, ob Dir diese Tatsache nun gefällt oder nicht interessiert mich nicht!
Da sage ich nur eines: Proove it!
http://www.nintendo-cube.de/admintest.php?spielid=5 schrieb:
Trotz der Grafikpracht kommt das Spiel nie ins Stocken und flimmert mit bis zu 60 Frames über den TV-Schirm.
Das sagt selbst die eigene Website.
Du wirst es kaum glauben, aber ich habe sogar ein 10 Meter langes billiges DVI-Kabel um meinen Beamer damit zu betreiben und es gibt weder Bildstörungen noch sonst negative Auffälligkeiten.
Liegt vielleicht daran, dass DVI Signale digitale Signale
Erstmal kann ein Bild bei DVI komplett ausfallen, ist die Datenrate durch Fehler zu gering, desweiteren gibt es bei bestimmten Geräte-Kombinationen durch D/A oder A/D ebenfalls womöglich Probleme, insbesondere im Farbraum und bei der Skalierung. Wie dem auch sei, dass du keine Probleme hast, liegt nicht an dir - es ist schier Glück.
Wii hängt mit Komponenten Kabel dran, gestochen scharfes Bild, jeder Pixel wird störungsfrei angezeigt! Also kannst Du Deine Aussagen zu den skurilen Gerüchten zählen.
Ersteinmal wird garantiert nicht jeder Pixel fehlerfrei angezeigt. Das ist bei einem YUV-Kabel von über 2 Metern technisch unmöglich. Außerdem glaube ich kaum, dass du ein wirklich gestochen scharfes Bild jemals gesehen hast. Es mag vielleicht am Optimum deines Non-HD-Beamers liegen, doch keinesfalls am maximal Möglichen. Wer billige Kabel an einen billigen Beamer hängt, wird natürlich nie erfahren was ein wirklich gutes Bild ausmacht.
Auf die Glühbirne hat man 6 Monate Garantie :-)
Ja, 6 Monate oder 500h, je nachdem was zuerst kommt - Sanyo gibt z.B. nur 3 Monate oder 300h. Nach deiner eigenen Rechnung ist ist das nichteinmal ein Jahr...
Da mein Beamer festmontiert ist und keinen Erschütterungen ausgesetzt wird, denke ich schon, dass die Birne die Mindesthaltbarkeit erfüllen wird.
Bei der Haltbarkeit wird erstens von optimalen Bedingungen ausgegangen und zweitens ist die Mindesthaltbarkeit eben jene Angabe mit den 6 Monaten und 500h. Die 3000/4000h sind eine durchschnittliche (bei manchen sogar die maximale) Lebensdauer, die man über eine statistische Verteilung anhand eines Signifikanz-Niveaus berechnet.
 
Zuletzt bearbeitet:
polluxXT schrieb:
Die Realität einer Person die die PC-Welt für eine Referenz in Sachen HomeEntertainment hält ... Ja klasse, großes Kino! :evillol:

Wenn du lesen könntest (die Betonung liegt auf wenn), dann wäre dir vielleicht aufgefallen, dass ich mit keinem Wort erwähnt habe, dass ich die PC-Welt für eine Referenz in Sachen HomeEntertainment halte, ich habe mich jediglich auf einen aktuellen Test bezogen, der mich in meiner Meinung (und der Meinung vieler anderer) bestätigt... :rolleyes:

Auch zähle ich ich mich nicht als "Leser" der PC-Welt, nur weil ich mir 2 mal im Jahr eine Ausgabe kaufe...

Aber wie man im Allgemeinen an deinen Postings merkt, bist du ja ganz große Klasse darin, haltlose Behauptungen aufzustellen. Eine Gabe, um die ich dich nicht beneide :)

Und wenn selbst schon den unqualifizierten, laienhaften Testern wie den Redakteueren der PC-Welt die mangelhafte Bildqualität bei aktuellen LCD- und Plasma-Tvs auffällt, dann sollte es doch den Testern aus HiFi-Zeitschriften mit ihren pseudofortschrittlichen Messmethoden erst recht auffallen, oder? :evillol:

Die Menschen neigen traurigerweise dazu, dass zu glauben, was sie glauben wollen, und nicht das, was der Realität entspricht... :rolleyes:
 
Zuletzt bearbeitet:
@polluxXT: Jo reines GLÜCK :-)

Ist ja so unwahrscheinlich, dass zusammen passende Komponenten auch miteinander funktionieren. Es gibt einfach keinen Grund, warum ein Monitor ein DVI/VGA Signal versteht und ein Beamer nicht. Wobei mein DLP Beamer digital arbeitet und mein Monitor ein CRT ist.

Das mit Wii in FullHD war so gemeint, dass Nintendo in 5 Jahren eine Nachfolger ausliefern wird. Ob die Konsole WiiHD heißt ist natürlich ziemlich aus geschlossen. Aber jeder der bißchen mitdenkt, versteht was ich meine.

Für 60 fps gibt einen ganz einfach Beweis -> Man sieht es! Die Grafik ist flüssig, aber bei Schwenks und Drehungen. Man muss schon blind sein, um den Unterschied zwischen 30/60 fps nicht erkennen zu können.
Spiel mal ein NFS-0815 und dann Mario Kart DD. Ruckel-Zuckel und schmierige Müllgrafik gegen 60 fps Mario Kart.

CRYSIS wird auch nicht mit 60 fps in der maximalen Auflösung auf einem Standard PC laufen, aber man hats selbst in der Hand. Die 360 kämpft schon bei gewöhnlichen Shooter um 30 fps, da sind 60 fps eine reine Utopie!

Zu den LCDs und Plasmas kann ich auch was sagen, beobachte diese Entwicklung seit den ersten Displays auf einer CeBit im letzten Jahrtausend, also meine Aussage lautet: "Buuuh!!!"

MFG

McDaniel-77
 
Zuletzt bearbeitet:
Fraqq schrieb:
Wenn du lesen könntest (die Betonung liegt auf wenn), dann wäre dir vielleicht aufgefallen, dass ich mit keinem Wort erwähnt habe, dass ich die PC-Welt für eine Referenz in Sachen HomeEntertainment halte, ich habe mich jediglich auf einen aktuellen Test bezogen, der mich in meiner Meinung (und der Meinung vieler anderer) bestätigt... :rolleyes:
Du hast die PC-Welt als Beweis für ein schwachsinniges Argument benutzt. Mit den Konsequenzen musst du also leben. Ich kenne den Artikel der PC-Welt genau und kann die völlig unprofessionelle Verfahrensweise überhaupt nicht unterstützen.
Aber wie man im Allgemeinen an deinen Postings merkt, bist du ja ganz große Klasse darin, haltlose Behauptungen aufzustellen. Eine Gabe, um die ich dich nicht beneide :)
Die Behauptungen waren so haltlos, dass ich sie auch noch mit Fakten unterlegen konnte. Sehr haltlos... :rolleyes: :evillol:
Und wenn selbst schon den unqualifizierten, laienhaften Testern wie den Redakteueren der PC-Welt die mangelhafte Bildqualität bei aktuellen LCD- und Plasma-Tvs auffällt, dann sollte es doch den Testern aus HiFi-Zeitschriften mit ihren pseudofortschrittlichen Messmethoden erst recht auffallen, oder? :evillol:
Und dass sich die PC-Welt wie bei sovielen Dingen einfach irrt, der Gedanke kommt dir nicht. Ganz sicher!
McDaniel-77 schrieb:
Ist ja so unwahrscheinlich, dass zusammen passende Komponenten auch miteinander funktionieren.
Es ist Glück ein billiges 10m-DVI-Kabel an einen DLP-Beamer zu bekommen und dann noch ein Bild zu haben. Der Grund ist einfach: DVI ist als Standard nicht bis 10m spezifiziert. Alle Kabellängen in dieser Dimension können zu Bildausfällen führen...
Für 60 fps gibt einen ganz einfach Beweis -> Man sieht es! Die Grafik ist flüssig, aber bei Schwenks und Drehungen. Man muss schon blind sein, um den Unterschied zwischen 30/60 fps nicht erkennen zu können.
Das menschliche Auge sieht überhaupt keinen Unterschied zwischen 30 und 60 Bildern pro Sekunde. Einzig Einbrüche unter die Marke von 25 Bildern können wahrgenommen werden. Die 60 Frames beziehen sich auf eine mittlere Größe, von der man ausgehen kann, dass ein Einbruch unter eine Marke von 25 Bildern höchst unwahrscheinlich wird. Auch hier wieder reine Statistik.
 
@polluxXT: Dein Halbwissen erschüttert mich. Woher hastn das Gerücht mit dem menschlichen Auge her?

Klar sieht man den Unterschied von 20, 25, 30, 45, 60, 100 fps!!! Ab ca. 45+ fps wirds flüssig...

Gott ne! Warum laufen die Spiele mit 60 fps und PC Spielen wollen gerne mal 100 fps haben, weil sie es sehen, den Unterschied!

AB, wohlgemerkt ab einer Framerate von 18-24 Bildern fängt das Gehirn an, eine gleichmäßige Bewegung zu interpretieren. Drunter, unterhalb von 18-24 fps, ist es eine Diashow!
Warum denkst du wohl wurden 100 Hz Fernseher erfunden? Weil das menschliche Auge ab 25 Hz keine Steigerung mehr wahrnimmt?
Autsch!
Wenn 25/30 fps das geschmeidige Optimum wären, wäre es deiner Aussage nach auf völliger Blödsin 60 fps darzustellen, weil die 30/35 Extrabilder pro Sekunde niemand wahrnehmen kann.

Hast Du CS oder CSS, öffne ein Create Game, öffne die Console, gibt -> fps_max 25 ein <- und freu dich über die flüssige Grafik!

MFG

McDaniel-77
 
Zuletzt bearbeitet:
Das hat aber andere Gründe (das mit CSS)

1. Maus arbeitet nicht mehr optimal

2. Nehmen wir mal 25 FPS an. Bei einer 360 Grad Drehung wären das pro Bild 14.4 Grad Blickwinkeländerung.
Bei 60 FPS sind das nur noch 6 Grad. Daher sieht es bei 60 FPS flüssiger aus.

Aber es stimmt schon. Das Auge sieht den Unterschied zwischen 25FPS und 100FPS, was aber nicht heisst, dass man immer 60 FPS braucht, um das Spiel als "flüssig" zu erkennen.

@McDaniel-77

Bei einer Konsole machen mehr als 30 FPS einfach nicht Sinn! Dass GoW nur mit 30 FPS läuft, rührt daher, dass die Entwickler solange Effekte hinzugefügt haben, bis nur noch 30 FPS da waren. Am Anfang lief es etwa mit 70.
Bei den Cutscenes haben sie die Limite sogar noch auf 20 FPS heruntergesetzt, dafür aber auch mächtig Effekte hinzugefügt.

BTW: Forza Motorsport 2 läuft mit 4aa 8af mit konstanten 60FPS. Mit HDR, und sonstigem Schnickschnack + wirklich echte Schattendarstellung! Soviel zur Leistungsfähigkeit der Box!
 
Zuletzt bearbeitet:
Zwischen "die PC Welt für eine schwachsinniges Argument nutzen" und "die PC Welt für die Referenz in Sachen HomeEntertainment halten" besteht ein klitzekleiner Unterschied. Verwirren dich meine einfachen Gedankengänge so sehr? :evillol:

Und dass sich die PC-Welt wie bei sovielen Dingen einfach irrt, der Gedanke kommt dir nicht. Ganz sicher!

Du hast Recht. Es klingt viel plausibler das du immer Recht hast und sich eine Gruppe von Redakteuren einfach irrt :rolleyes:

Auszug aus dem Test (hier der 2500€ Testsieger von Philips) :
"...andererseits wurden dunkle Bereiche detailarm beziehungsweise fleckig dargestellt..."

Sicherlich haben sich die Redakteure nur geirrt. In Wirklichkeit wurden die dunklen Bereiche überhaupt nicht detailarm und fleckig dargestellt. Die haben sich das alles nur eingebildet. Ja genau, so muss es gewesen sein, dass klingt viel plausibler :freak: :evillol:

Hihihi...
 
McDaniel-77 schrieb:
@polluxXT: Dein Halbwissen erschüttert mich. Woher hastn das Gerücht mit dem menschlichen Auge her?
Das nachzurecherchieren überlasse ich dir...
Klar sieht man den Unterschied von 20, 25, 30, 45, 60, 100 fps!!! Ab ca. 45+ fps wirds flüssig...
Nein, das ist ein statistischer Effekt. 100 Frames sind von deinen 45 nicht unterscheidbar.
Gott ne! Warum laufen die Spiele mit 60 fps und PC Spielen wollen gerne mal 100 fps haben, weil sie es sehen, den Unterschied!
Nein, sie wollen sicher gehen möglichst keinen Einbruch der Framerate zu erleben. Je größer die Entfernung zu den 24/25 Frames, desto unwahrscheinlicher ist ein Einbruch.
AB, wohlgemerkt ab einer Framerate von 18-24 Bildern fängt das Gehirn an, eine gleichmäßige Bewegung zu interpretieren. Drunter, unterhalb von 18-24 fps, ist es eine Diashow!
Ob nun 24 oder 25, ist irrelevant. Die einen sagen dies, die anderen das. Oberhalb von 24/25 ist es eine völlig flüssige Bewegung, unterhalb von 18 empfindet es das menschliche Auge als keine durchgängige Bewegung, dazwischen ist eine einigermaßen gleichmäßige Bewegung, die aber von einer flüssigen unterscheidbar ist.
Warum denkst du wohl wurden 100 Hz Fernseher erfunden? Weil das menschliche Auge ab 25 Hz keine Steigerung mehr wahrnimmt?
Autsch!
Erstmal ist Hz nicht gleich Frame und desweiteren liegt der Unterschied nicht in der Anzahl an Bildern, sondern in den Halbbildern. Eine Herzzahl von 50/60 Hz wird als flackernd (ungleich nicht flüssig) wahrgenommen, da der Kathodenstrahl an einer anderen Stelle ansetzt als dass er aufhört. Der Effekt ist also völlig unabhängig von der Bildbewegung. Das ist der Preis von Interlaced-Bildmaterial im Zusammenspiel mit Kathodenstrahlröhren.
Hast Du CS oder CSS, öffne ein Create Game, öffne die Console, gibt -> fps_max 25 ein <- und freu dich über die flüssige Grafik!
Hoffentlich wirst du eines Tages den Hintergrund verstehen - Thema Statistik. Die Hoffnung stirbt zuletzt...
 
Zuletzt bearbeitet:
Fraqq schrieb:
Zwischen "die PC Welt für eine schwachsinniges Argument nutzen" und "die PC Welt für die Referenz in Sachen HomeEntertainment halten" besteht ein klitzekleiner Unterschied. Verwirren dich meine einfachen Gedankengänge so sehr? :evillol:
Deine Gedankengänge sind nicht gerade komplex, aber wie gesagt, mit dem Lästern musst du leben. :evillol: :p
Auszug aus dem Test (hier der 2500€ Testsieger von Philips) :
Sicherlich haben sich die Redakteure nur geirrt. In Wirklichkeit wurden die dunklen Bereiche überhaupt nicht detailarm und fleckig dargestellt. Die haben sich das alles nur eingebildet. Ja genau, so muss es gewesen sein, dass klingt viel plausibler :freak: :evillol:
Alleine das ist schon schrecklich. Die Herren, die du so verteidigst, haben nicht mal den nötigen Fachwörter-Katalog bemüht. (Wie auch: Inkompetenz) Das was sie mit "detailarm" in dunklen Bereichen bezeichnen, ist der Schwarzwert, der bei manchen Geräten übersteuert wird. Was sie mit "fleckig" bezeichnen, ist mir aber völlig schleierhaft. Du willst mal wirklich kompetente Autoren: Kleiner Tipp - AreaDVD.de - in Sachen Bildqualität verstehen die wesentlich mehr.
 
@polluxXT: Das mit dem Hz und Flackern ist mir klar, ich wollte nur verdeutlichen, dass sogar 100 Hz eingeführt wurden, weil die Augen eben doch so empfindlich sind.

LCDs neigen zu unschönen Schlieren, richtig scharfe und gleichzeitig bewegte Bilder sind eigentlich kaum realisierbar.
Und das Totschläger Argument gegen Plasma und LCDs ist einfach die Tatsache, dass die Geräte für die gebotene Bildgröße und Bildqualität einfach viel zu teuer sind.
Man bekommt schon echte HD-Beamer (1280*720 Pixel) für unter 1.500,- Euro z.B. einen Toshiba MT700 DLP-Projektor 1000 ANSI Lumen 1280X720
Und wer wirklich auf große Bilder steht, der braucht mit einem LCD oder Plasma eigentlich garnicht anfangen.
Der Nachteil der Beamer ist halt immer, dass es möglichst abgedunkelt sein sollte. Bei Tageslicht bringen es Beamer nicht.
Aber meiner Meinung nach, also wer sich für tausende von Euros einen Bilderzeuger leistet, muss ja wirklich Tag & Nacht Fernseh schauen, damit sich diese Investition jemals rechnet.

Das Forza auf der 360 4-fach Antialiasing unterstützt halte ich für ein Gerücht.

Um nochmal auf die 60 fps bei Videospielen einzugehen. Ich bin froh, dass Mario Kart DD auf dem Gamecube 60 fps bietet und nicht bei 30 fps rumzuckelt. Das trägt ungemein zum Spielgefühl bei. Ich kenn genug 30 vs. 60 Frames Spiele und 60 fps wesentlich schöner anzusehen. Deswegen kann ich meinen Hut bis jetzt noch vor keinem 360 oder PS3 Spiel ziehen. Weil GoW hat eben nur 30 fps, weil die 360 zu schwach ist, ebenso Motorstorm auf der PS3, gleiches peinliches Problem. Ein 2007er Rennspiel mit nur 30 fps ist einfach ein schlechter Witz. Sowas kann man nicht mehr als NextGen verkaufen, das ist einfach lächerlich.
Geile Grafik, Effekte, Antialiasing/Kantenglättung, anständige AF Filterung und das bei const. 60 fps -->> NextGen und "IMPRESSIVE", der Rest = "gääähn, kann mein PC besser und ist billiger!"

MFG

McDaniel-77
 
Nochmal ne kurze Ergänzung: Mit übersteuerten Schwarzwert meine ich, dass der Schwarzwert zu lasten der Details im Dunkel künstlich aufgedreht wird. Das Schwarz "verschluckt" zuviele Details. Der Panasonic TH-42PV60 neigt z.B. dazu. Der Schwarzwert ist exzellent, es lassen sich aber nur sehr wenige Details erkennen. Ein Pioneer PDP-427 dagegen ist weniger energisch und liefert mehr Details.

Das mit dem Hz und Flackern ist mir klar, ich wollte nur verdeutlichen, dass sogar 100 Hz eingeführt wurden, weil die Augen eben doch so empfindlich sind.
Das ist aber eine andere Empfindlichkeit und hat mit flüssigem Bewegungsablauf im Sinne genügend Bilder pro Sekunde nichts zu tun.

Beamer haben oftmals das Problem, dass sie keine guten Scaler haben und etwas zum Fernseh-Empfang extra angeschlossen werden muss. Ein Pioneer PDP-427 dagegen hat auch Nachteile, er ist aber in Sachen Scaling exzellent und hat einen Tuner. Die niedrige Auflösung spielt da kaum eine Rolle, kann der Pioneer besser scalen als mancher Full-HD (z.B. BenQ) nativ darstellen kann. Für rein-native Sachen (Games) ist ein Beamer aber wirklich nicht schlecht.
 
Zuletzt bearbeitet:
Zurück
Oben