News Nvidia liefert im 3. Quartal 20 Prozent mehr Grafikchips aus

Also laut deinem Link zu leo.de kann man es durchaus mit diskret übersetzen, gerade im technischen Kontext.
Des Weiteren ist der Ausdruck "diskrete Grafiklösung" auch im Deutschen durchaus korrekt, siehe: http://universal_lexikon.deacademic.com/50214/Grafikkarte

Die Wortbedeutung von diskret reicht ja auch im Deutschen über das "Vertraulichhalten" hinaus. Gerade im technisch/wissenschaftlichen Kontext.
 
Zuletzt bearbeitet:
@marecar

Diskret und Dediziert geht beides in dieser Nachricht.

Dediziert steht für einzelne Grafiklösungen, ob Graka oder wenn niemand sonst diese Aufgabe übernehmen kann, zb. in einem Notebook mit älterer CPU ohne Grafikkern/ Onboard GPU.

Von diskreter Grafiklösung spricht man, wenn man zwischen Onboard GPU oder CPU IGP und einer zusätzlichen, idR. stärkeren Grafiklösung wechseln kann.

Du kannst deinen Oberlehrer also stecken lassen. :p
 
Das wird ja immer schlimmer hier. Die Faktenresistenz hier scheint sich auch auf simple Wahrheiten der Deutschen/Englischen Sprache auszuweiten.

"discrete" bedeutet einfach nur seperat. Das ist ein ganz normales Englisches Wort mit der Bedeutung, da gibt es nichts zu interpretieren und zu feilschen. Nur weil sich in eurem Hirn der Schalter nicht umlegen lässt nicht Deutsch zu hören wenn ihr Deutsch-aussehende Wörter seht ändert das nichts an den Tatsachen. Discrete Graphics Card bedeutet nicht "Diskrete Grafikkarte", sondern eine Seperate, Eigenständige, Extra Grafikkarte, welche nicht auf dem Chip oder Mainboard ist, also eine seperate, eigenständige Grafikkarte.
Was ihr aber glaubt zu sehen wenn ihr es in "diskret" übersetzt ist discreet.

Ausserdem apply-t die mathemathisch-technische Bedeutung des Deutschen diskret nicht auf Grafikkarten, genausowenig wie auf die CPU und andere Computerkomponenten.

Benutzt einfach in Zukunft das korrekte Deutsche Wort Seperat oder Eigenständig, so das es jeder Leser verstehen kann, denn das Deutsche Internet ist nämlich nicht mehr lesbar, vor allem für Normalsterbliche welche nicht die Englische Ausdrucksweise kennen und daher wissen das die Deutsche Übersetzung falsch ist, jeder normale Leser denkt es handelt sich um eine Grafikkarte welche diskret ist. Ausser sie ist passiv gekühlt, hat das Wort "diskret" nichts in der nähe des Wortes Grafikkarte zu suchen. Webseiten die sich für Technikseiten halten, Redakteure und Forumsleute welche sich für Computer-affin halten, bekommen nicht mal so etwas simples hin wie eine Grafikkarte richtig zu benennen weil sie offensichtlich nur 5. Klasse Englisch können und im Urlaub am Würstchenstand zum Hot Dog werden.

Warum sich dagegen gewehrt wird ist mir ein noch größeres Rätsel als die Frage wie man es nicht hinbekommt einen Englischen Ausdruck richtig zu übersetzen.
 
Zuletzt bearbeitet:
Mit dem seperat und eigenständig hab ich kein Problem.
Kann man fordern, anstelle von diskret.

marecar schrieb:
weil sie offensichtlich nur 5. Klasse Englisch können und im Urlaub am Würstchenstand zum Hot Dog werden.

Aber da du wiederholt Leute als "Fünftklässler" beleidigst, ist es schwer dich ernst zunehmen.

marecar schrieb:
wissen das die Deutsche Übersetzung falsch ist, jeder normale Leser denkt es handelt sich um eine Grafikkarte welche diskret ist. Ausser sie ist passiv gekühlt, hat das Wort "diskret" nichts in der nähe des Wortes Grafikkarte zu suchen

Diskret wird im deutschen, in der Elektrotechnik verwendet.
- http://de.wikipedia.org/wiki/Diskretes_Bauelement
 
Amok-Sepp schrieb:
Aber da du wiederholt Leute als "Fünftklässler" beleidigst, ist es schwer dich ernst zunehmen.

Es interessiert nicht im geringsten ob du mich ernst nimmst (ein anderes Wort welches du für "mögen" verwendest) oder nicht, die Tatsachen bleiben unverändert. Ich persönlich habe absolut nichts damit zu tun, du musst nicht mich oder meine Ausdrucksweise mögen um die Fakten anzuerkennen, die stehen von selbst, und jedes zweifeln an mir als Person ändert absolut nichts an diesen Fakten.

Desweiteren, wenn du ein Englisch an den Tag legst welches dem Stand der 5. Klasse entspricht, werde ich dein Englisch auch als solches betiteln. Lern vernünftiges Englisch so das du nicht mehr klingst wie jemand der gerade seine ersten 40 Wörter Englisch gelernt hat, und dann wirst du auch nicht mehr so gehört und dies folglich auch nicht mehr Bildlich herausgestellt werden. Ist nicht meine Schuld, sondern deine.

Diskret wird im deutschen, in der Elektrotechnik verwendet.
- http://de.wikipedia.org/wiki/Diskretes_Bauelement

Das ist mir durchaus bewusst, und dazu habe ich auch schon etwas geschrieben. Darum geht es jedoch nicht weil es etwas ganz anderes ist als das worum es hier geht. Hört doch einfach auf zu feilschen, ihr könnt an den Realitäten der Deutschen und Englischen Sprache nichts ändern weil ihr irgendetwas anders interpretieren wollt um eure vergangenen und weiter andauernden Fehler zu entschuldigen und (da sind wir wieder) wie Schulkinder "Ja..aber das ist doch auch irgendwie richtig...also das kann ja auch...also das hab ich sooo gemeint...also bekomme ich da bitte noch einen halben Punkt weil..." anfängt nachträglich loopholes zu suchen um zu feilschen. Akzeptiert es einfach, das gesamte Deutsche Internet ist unfähig ein einfaches Englisches Wort Sinngemäß zu übersetzen. Aus. Seht euren Fehler ein und benutzt in Zukunft einfach das richtige Deutsche Wort, da ihr ansonsten den gleichen Stuss schreibt wie irgendwelche Chinesischen Anleitungen und schlechte automatische Übersetzungen von Texten.
 
Wenn Nvidia weiter dran bastelt Tegra 3 und Quad,wenig Verbrauch *Träum* dann würde selbst Intel irgendwann alt aussehen und AMD Pleite sein ,aber gut noch ist es ein Wunschdenken :rolleyes::rolleyes:
 
Zuletzt bearbeitet:
Oxford sagt
adj.: discrete: independet of other things [...]

wiki sagt
diskret (von lateinisch discretum „abgesondert“


für mich passt das.
 
Zuletzt bearbeitet:
Also ich bin sprachlos wieviele "Schwätzer" hier rumrennen und noch immer Felsenfest behaupten AMD Treiber machen noch immer Probleme deshalb sollte man NV kaufen. Das ist doch lächerlich. NV und AMD sind bei den Treibern (Windows) absolut ebenbürtig. Diese alte Mär ala AMD Treiber sind mies sind einfach nicht korrekt. Es gibt bei NV genausoviele/wenige Probleme mit den Treibern wie bei AMD.

Warum muss jede News immer gleich für DUMME Fanboyaussagen missbraucht werden? (Egal von welchen Lager)
 
Was denn hier für eine Diskussion entbrannt?

Ich vermute mal das gerade im OEM Segment NV neine große Rolle spielt bzw. dort wird sicher das Geld verdient, gerade Karten wie die 640 oder die 620 die ja eine 40nm 520 ist mit einem neuem "Aufkleber" verkaufen sich in Komplettrechner sicher sehr gut und in Q3 läuft schon das Weihnachtsgeschäft
 
pipip schrieb:
Oder könnt ihr begründen wieso NV so hohe Preise verlangen kann, oder mehr Chips abwerfen kann ?
Wenn ich nach 2-3 Jahren (je nach Kaufzeitpunkt) keine neuen Treiber mehr bekomme und neue Spiele dadurch teils unspielbar werden ist das ein ganz klares Argument gegen AMD und für Nvidia.
Wer sich 2009/2010 eine HD4890/4770/4xxx geholt hat kann sie inzwischen wegwerfen.
Bei Notebooks ist es ja noch schlimmer.
 
Kamikaze_Raid schrieb:
Warum muss jede News immer gleich für DUMME Fanboyaussagen missbraucht werden? (Egal von welchen Lager)

Absolut normal. Es werden praktisch bei jeder zwischenmenschlichen Kommunikation Vorurteile gehegt oder schlecht über das geredet, was man noch gar nicht getestet hat.
Gerade an der meistens nicht vorhandenen Weitsicht sieht man die Grenzen unserer anwendbaren Intelligenz bzw. Faulheit (, welche widerum eine Folge von Intelligenz ist) wunderbar.

PS: Ich mag an den neuen Nvidia-Treibern, dass man bei vielen Spielen treiberseitige Umgebungsverdeckung (Ambient Occlusion) aktivieren kann. Das lässt das Bild viel tiefer bzw. dreidimensionaler erscheinen. Kann man das bei AMD auch (ich glaube nicht)?
 
Zuletzt bearbeitet:
@ der Landvogt Ich denke da grade an meine AMD 5770 ,selbst die ist schon Steinzeit :rolleyes::mad:

Und wenn ich die Preise sehen von AMD da geh mir das Messer in der Tasche auf bei und ich bekomme einen dicken Hals ,wer bitte gibt so viel Geld für eine Grafikkarte aus ne ne ....was grade mal Mittelklassen Grafik tauglich ist und schon 200 euro und aufwärts kostet.

Das ist keine Relevance zu einer Spiele tauglichen Konsole,die mittlerweile auch schon eingestaubt ist zwar ,aber noch aktuelle Games spieletauglich wiedergibt und ohne das es dabei in stocken kommt.

Von Preis der Konsole und das aufrüsten eines PC s nimmt es sich genauso wenig und hat man über die Jahre locker wieder raus.

Und bevor hier einer was sagt in Sachen ähh das sieht ja bescheiden schön aus auf der Konsole die Grafik ,dann überlegt bitte was man den tun muß bei einem PC das es flüssig läuft ,die Grafik runterschrauben und auf Details hier und da verzichten und schon sieht es dort auch nicht besser aus .
 
Zuletzt bearbeitet:
@ der Landvogt: also meine 4890 funktioniert einwandfrei selbst bei neuen Spielen. Trotzdem muss ich wohl bald Abschied nehmen. Mein neuer (im Bezug auf die Graka) 22zoll Bildschrim bringt die ganz schön ins schwitzen, was aber nicht an schlechten Treibern liegt.
 
Der Landvogt schrieb:
Qualität und Support zahlen sich halt aus. Nach meinen Treibererlebnissen mit ATI/AMD werde ich von dieser Firma keine Grakas mehr kaufen. Die brauchen erst mal 5 Jahre um ihren miesen Ruf bei mir wieder loszuwerden. ;)

Dan316 schrieb:
/signed
Genau das bringt es auf den Punkt.
Wobei es bei mir noch eher ~10 Jahre sein werden.

Na dann hoffenw wir, dass ihr keine Nvidia-Treiber habt:

http://www.pcgameshardware.de/Grafi...ws/Geforce-GTX-680-Probleme-mit-Vsync-882878/

:p


;)
 
Oh man... was ein Popcorn-Thread:lol:

btt:
Die Zahlen sind doch eh für die Tonne. Wenn da Intel auftaucht(wie immer...)nehm ich die eh nicht ernst. Intel hat keine Graka in dem Sinne. Punkt.

Und ja, die Nvidia Treiber sind in meinen Augen übersichtlicher zu bedienen von der Oberfläche her^^. Hatte ich noch nie Probs.
 
@Der Landvogt


will dir ja echt nicht zu nahe treten, aber von amd grafikkarten oder denn passenden treibern für amd karten hattest du wohl noch nie viel ahnung!?
was du hier ablässt ist schlicht und einfach dummes geschwätz. sorry aber anders kann man es in deinem fall einfach nicht mehr ausdrücken.
bei nvidia bekommt man zur zeit eine gehobene mittelklasse karte zwischen 240 und 340 euro ( 660ti mit 192 bit ist einfach nicht mehr wie mittelklasse ). mehr muss man doch nicht sagen. mittelklasse für soviel geld ist ein nogo. amd ist da was grafikkarten angeht um einiges besser aufgestellt zur zeit.


und wenn man sich die neuseten treiber anschaut welche leistung diese entfesseln bei amd karten, wird einem bei dem preis einer nvidia karte schlicht und einfach schlecht ( soll nicht bedeuten das die karten von nvidia schlecht sind, sie sind einfach nur gnadenlos überteuert ).
 
Zuletzt bearbeitet:
marecar

Bevor du über andere richtest, solltest du mal eine gedankliche Reise ins Mittelalter machen. Dort würden die Leute schräg anschauen.
Weiters, könnten wir ja auch gleich folgendes Besprechen, was ja dann genauso falsch ist
Strom verbrauchen
http://de.wikipedia.org/wiki/Elektrischer_Strom#Technische_Nutzung_des_elektrischen_Stroms
Der umgangssprachliche Ausdruck „Strom verbrauchen“ ist technisch gesehen nicht richtig, da der Strom, der in ein Gerät hineinfließt, auch wieder herausfließt (Ladungserhaltungssatz). In der Tat ist es beim üblichen Haushaltsstrom sogar so, dass die Elektronen nur im Leiter ein kleines Stück hin- und her „wackeln“, ohne dass tatsächlich eine nennenswerte Anzahl von Elektronen aus der Leitung ins Gerät fließt. Was tatsächlich „fließt“, ist elektrische Energie. Diese wird ebenfalls nicht verbraucht, wie sich das umgangssprachlich eingebürgert hat, sondern wird umgewandelt, z. B. in mechanische Energie (Motor), Wärme (Haartrockner) und chemische Energie (z. B. beim Aufladen von Akkus). Die dabei verrichtete Arbeit (bei ohmschen Beziehern das Produkt aus Spannung, Stromstärke und Zeit) wird durch einen sog. Stromzähler ermittelt. Deswegen wird der „Stromverbrauch“ auch in der Energieeinheit Kilowattstunde, und nicht in der Stromeinheit Ampere gezählt.
Weiteres wird auch von vielen die TDP Angabe mit Verbrauch gleichgesetzt.

Weiteres weiß ich nicht wie du es mit Mathematik hast aber
http://de.wikipedia.org/wiki/Diskretheit

Aber vllt habe ich dich noch nicht ganz verstanden und du beschreibst dein Problem etwas ausführlicher !

Übrigens eine Frage damals an meinen Professor, wieso man manche Dinge trotzdem so benennt, war folgende : Es hat sich eingebürgert ! Diese Antwort ist legitimer als du glaubst und du wirst es nicht gern hören, aber das Sozialgebilde Gesellschaft > dein Individuum.
Aber mir ist es eigentlich eh recht egal, sag meist sowieso nur dgpu. Wem das stört weil es zu Fachchinesisch ist, sollte vllt nicht auf Hardware-Seiten unterwegs sein.

Diese alte Mär ala AMD Treiber sind mies sind einfach nicht korrekt. Es gibt bei NV genausoviele/wenige Probleme mit den Treibern wie bei AMD
Naja, irwer muss doch Schuld haben oder ? Wenn es nicht der User ist, müssen es die Treiber sein ^^
Ich hatte früher immer NV Karten, seit der HD 3000 hatte ich nur AMD-Karten. Einige Freunde haben NV.
Für mich sind diese Treiberfehler wie das Ungeheuer von Loch Ness. Zwar wird immer darüber geredet und sie wurden "gesehen", ob es nun stimmt, kann mir dann doch keiner genau beantworten ? Dabei spiele ich meist die gängigsten Games. Einzig AOC hatte anfangs mit ATI Karten echt ein Problem, daran kann ich mich noch gut erinnern, aber das war noch zur Zeiten der HD2000.
Ich persönlich vermute es ist eher der User und manche Posts unterstreichen das nur.
Interessant ist aber nur, ich hab noch nie Bsp von den "Betroffenen" gehört.
Weiteres würde mich mal genauer interessieren, was die Leute denn unter Treiber Probleme verstehen.

Und ja, die Nvidia Treiber sind in meinen Augen übersichtlicher zu bedienen von der Oberfläche her^^. Hatte ich noch nie Probs.
Hab genau den anderen Eindruck, ist wohl eher eine Sache der Gewohnheit.

Der Landvogt
Das ist bei NV mit einer HD 8000 oder 9000 anders ?
Wie war das bei denen die sogar eine PhsicX Karte noch besitzen ?
Lass mich ja gerne aufklären :) Aber ich hab vor einiger Zeit noch Borderlands und co mit einer HD 3870 gespielt ^^
 
Zuletzt bearbeitet:
Jo, Popcorn-Thread. :rolleyes:

Nvidia hat nun mal das bessere Image aus irgendeinem Grund... Sie haben mit der 600er Serie sogar mächtig den Verbraucher beschissen und einige Tage Später redet keine Sau mehr darüber. Hätte AMD das getan da wäre ein Thermonuklearer Krieg ausgebrochen. :p

Tja die Propaganda-Schweinchen bei Nvidia sind schlau, sie wussten wohl, dass da nichts passiert. ;)

skar29 schrieb:
Wenn Nvidia weiter dran bastelt Tegra 3 und Quad,wenig Verbrauch *Träum* dann würde selbst Intel irgendwann alt aussehen und AMD Pleite sein ,aber gut noch ist es ein Wunschdenken :rolleyes::rolleyes:
Du wünscht dir, dass Nvidia als einziger Hardwarefertiger überlebt?! LOL :lol:

Qualcomm lässt Nvidia Tegras jetzt schon ganz schön alt aussehen und das wird weiterhin auch so bleiben. :evillol: Also eigentlich müsste Qualcomm den Markt überrempeln und AMD, Nvidia und sogar Intel killen, zumindest deiner fehlerhaften Logik nach. :rolleyes:
 
Aeromax schrieb:
Wer lässt Intel in so eine Statistik einfließen?
Ist doch klar, dass die mehr verkaufen als Nvidia/AMD.
Jeder der einen halbwegs aktuellen Intelprozessor hat, hat eine Onboardgrafik aber bei weitem nicht jeder hat überhaupt eine Grafikkarte.

Ahja du sitz auch in deinem 1x1 meter räumchen?
Richtige CPU´s haben keine Onboard Graka da für so nen scheiss kein platz und TDP frei ist.
das war schon immer so und bleibt woll auch noch ne ecke so!
q6600/q9650
i980/990
3820/3930/3960/3970
und die kommende High end version mit ivy-e wird auch ohne graka sein.

Der Landvogt schrieb:
Wenn ich nach 2-3 Jahren (je nach Kaufzeitpunkt) keine neuen Treiber mehr bekomme und neue Spiele dadurch teils unspielbar werden ist das ein ganz klares Argument gegen AMD und für Nvidia.
Wer sich 2009/2010 eine HD4890/4770/4xxx geholt hat kann sie inzwischen wegwerfen.
Bei Notebooks ist es ja noch schlimmer.

naja ganz übertreiben müssen wir nicht. bei Desktop ist amd im guten bereich weil das was sie aus der support liste werfen sind asbach uhralt karten die eh nicht für neue spiele reichen.
4800 wird übrigens noch supportet.

aber ja Nvidia supportet im jahre 2012 noch 6000/7000/8000/9000 reihe ^^

bei mobilen chips ist es leider so da ist AMD der letzte drecks hersteller 2 Jahre und du bekomst kein spiel mehr zum laufen weil vorher schon nur jedes 25 geht!

Nvifia supportet nicht jedes spiel Mobil aber nahezu jedes 9/10 gehn auch nach 3-4 jahren.
 
marecar schrieb:
.....
Benutzt einfach in Zukunft das korrekte Deutsche Wort Seperat oder Eigenständig, so das es jeder Leser verstehen kann, denn das Deutsche Internet ist nämlich nicht mehr lesbar, vor allem für Normalsterbliche welche nicht die Englische Ausdrucksweise kennen und daher wissen das die Deutsche Übersetzung falsch ist, jeder normale Leser denkt es handelt sich um eine Grafikkarte welche diskret ist. Ausser sie ist passiv gekühlt, hat das Wort "diskret" nichts in der nähe des Wortes Grafikkarte zu suchen. Webseiten die sich für Technikseiten halten, Redakteure und Forumsleute welche sich für Computer-affin halten, bekommen nicht mal so etwas simples hin wie eine Grafikkarte richtig zu benennen weil sie offensichtlich nur 5. Klasse Englisch können und im Urlaub am Würstchenstand zum Hot Dog werden.

.....

Ach ich bin sicher die Graka ist auch diskret, wenn du mit der Freundin deiner Freundin schläfst wird die Grafikkarte nichts ausplaudern! :evillol: (ja billig ich weiß!)

@topic:
Wundert mich nicht das AMD weiterhin Probleme hat fast alle OEM setzten auf Nvidia/Intel Kombos. Und gekauft wird eben vorallem OEM sei es von Otto Normalo (was ein geringer Anteil ist!) oder vorallem von Firmen. Wenn ich da allein an unsere Firma denke, wir haben ~400 Mitarbeiter im customer Support Business Expert Center (ja das heißt wirklich so ^^) und davon hat jeder 1 normalen PC im Firmennetz und 1-2 Testrechner. Kommt also allein schon dafür auf ~1000 Rechner und die sind natürlich alle OEM Massenware (bei uns HP). Und die Verträge mit den OEMs hat Nvidia und nicht AMD. Riesen Anteil daran haben a) der support den Nvidia den OEMs leistet und b) Tradition! Wenn du die letzten 5 Jahre deine IT auf Intel/Nvidia laufen hast dann wirst du auch die nächsten 1000 Rechner wieder so ordern.
 
Zurück
Oben