News Das X-Window-System wird 30 Jahre alt

fethomm

Commander
Registriert
Okt. 2012
Beiträge
2.597
Die X-Org-Foundation feiert den 30. Geburtstag des X-Window-System, das damit älter als Linux, Windows und das World Wide Web ist. Am 19. Juni 1984 verkündete Robert W. Scheifler vom MIT die Geburt des neuen Grafikstacks, der bis heute auf grafischen Linux-Desktops unverzichtbar ist.

Zur News: Das X-Window-System wird 30 Jahre alt
 
Na, da sach ich doch mal herzlichen Glückwunsch! ;)
 
Wenn es so geflickt und voller Lücken ist, warum ziehen es die meisten Distributionen nicht vor gleich umzusteigen?
 
Weil erstmal der Anwendungssupport gegeben sein muss, aktuell unterstützen nur GTK+3 und QT5 Anwendungen Wayland, und als stabile Window Manager gibt es neben Weston nur Mutter (Gnome 3), KWin ist noch nicht so weit (wobei eine rudimentäre Unterstützung schon vorhanden ist).
Meine Prognose ist, dass nächstes Jahr KWin und damit auch KDE so weit sein werden, ab dann kann man auch Wayland für den Desktop einsetzen, es wird aber mit dem X-Server koexistieren, der weiterhin als Fallback in Wayland intrigiert sein wird (als XWayland halt).
Bisher hat nur eine Distribution angekündigt, für ihre nächste Version Wayland als Standard einzusetzen, Fedora, aber auch nur mit dem Gnome Desktop.
 
Zuletzt bearbeitet:
und Nvidia als die Firma, die der Welt den Begriff „Graphics Processing Unit“ (GPU) näherbrachte, noch nicht gegründet.
Also das nenne ich mal verdrehen der GPU Historie. Nvidia wurde erst mit dem RIVA 1996 bekannt, während Matrox und ATI da schon 20 bzw. 10 Jahre am Markt waren. Also hat Nvidia wohl eher eine Technik nachgebaut, die andere der Welt schon Jahrzehnte früher näher gebracht haben. Nvidia wurde 1993 gegründet, ATI 1985 und Matrox 1976...
 
Da sieht mal wieder, wie einfallsreich die damals waren.
X Nachfolger von W des Betriebssystems V. Es wundert mich, wass Wayland nicht Z heißt.
Einen ähnlichen Mist haben sie ja damals bei dem Befehl dd gemacht. Der heißt ja nur nicht cc "copy and convert", weil cc schon für den "c compiler" vergeben war. Also hat man einfach das nächstbeste genommen was da war und das war dd.
 
Daedal schrieb:
Also das nenne ich mal verdrehen der GPU Historie. Nvidia wurde erst mit dem RIVA 1996 bekannt, während Matrox und ATI da schon 20 bzw. 10 Jahre am Markt waren. Also hat Nvidia wohl eher eine Technik nachgebaut, die andere der Welt schon Jahrzehnte früher näher gebracht haben. Nvidia wurde 1993 gegründet, ATI 1985 und Matrox 1976...

In der Textpassage wird sich auf die ersten 2D/3D Grafikbeschleuniger bezogen und da war Nvidia und 3dfx einer der ersten die die Dinger produziert haben. Die Textpassage bezieht sich nicht auf Grafikperipherie im allgemeinen
 
Zuletzt bearbeitet:
Daedal schrieb:
Also das nenne ich mal verdrehen der GPU Historie. Nvidia wurde erst mit dem RIVA 1996 bekannt, während Matrox und ATI da schon 20 bzw. 10 Jahre am Markt waren. Also hat Nvidia wohl eher eine Technik nachgebaut, die andere der Welt schon Jahrzehnte früher näher gebracht haben. Nvidia wurde 1993 gegründet, ATI 1985 und Matrox 1976...

HI jetzt mußt du mir nur noch erklären, was Dein Beitrag damit zu tun hat, daß Zitat: 'Nvidia der Welt den Begriff „Graphics Processing Unit“ (GPU) näherbrachte' . Diese Begriffsbildung hat doch nichts damit zu tun , daß andere schon vorher da waren. Es geht doch nur um die Namensgebung und nicht wer sie zuerst gebaut hat.

Schöne Grüße Mike
 
Richtig, ist eben so. Andere Hersteller wie 3Dfx sprachen von ihrem graphics chipset, nv nannte das ab der Geforce halt mal GPU.
 
Man bringt jemandem etwas näher, das zuvor gar nicht oder wenig bekannt war. Ganz sicher war hier nicht Nvidia federführend. Einfach mal Wikipedia nach 3D-Beschleuniger durchsuchen:

"Für den professionellen Markt wurden jedoch schon seit den 1980er Jahren spezielle 3D-Karten hergestellt (z. B. IBM PGC, TIGA[3] oder Diamond FireGL) Diese Karten fanden vor allem in Maschinenbau, Bauwesen (CAAD) und Schaltungsentwurf der Elektrotechnik in Form von CAD/CAM-Programmen Anwendung. Die zunächst proprietären Softwareschnittstellen wurden mit der OpenGL-Initiative vereinheitlicht"

Dies soll doch ein PC-Forum und eine Technik Webseite sein. Dann sollte man auch weiter recherchieren als bis zur ersten 3D fähigen GPU für Games. Vor allem wenn plötzlich ein Unternehmen der Welt etwas "näher" gebracht hat noch Jahrzehnte bevor es existiert hat ^^

Edit:
Ok habe jetzt kapiert, ihr meint Nvidia hat als erstes den Begriff "GPU" benutzt. Dies kann man tatsächlich auch so in dem Artikel interpretieren. Allerdings frage ich mich dann nach dem Kontext im Artikel. Der ist ja der selbe wie "Viele Jahr bevor AMD der Welt Eyefinity näher gebracht hat" oder "Viele Jahre bevor Intel der Welt den Begriff Pentium näher gebracht hat". Kein Zusammenhang zu dem Thema,des Artikels, daher frage ich mich was Nvidia in diesem Artikel überhaupt verloren hat und was so wichtig daran ist einen Marketingbegriff der Welt näher zu bringen, wenn eben nicht Grafikkarten als Hardware gemeint sind.
 
Zuletzt bearbeitet:
Artikel schrieb:
Nvidia als die Firma, die der Welt den Begriff „Graphics Processing Unit“ (GPU) näherbrachte
Die Aussage ist völlig korrekt und dabei spielt es auch keine Rolle, ob es vorher schon Grafikkarten gab oder Nvidia die Bezeichnung GPU erfunden hat. Nvidia hat diese Bezeichnung eben zuerst intensiv verwendet (um die Geforce 256 zu bewerben) und damit bekannt gemacht. Mehr steht da nicht.
 
Ja siehe meinen Edit. Doch die Frage bleibt nach der Relevanz für den Artikel wann Nvidia Marketingbegriffe erfindet oder benutzt. Es wird für den flüchtigen Leser der Eindruck erweckt, hatte die GPU erfunden...

Und warum sind nicht noch mehr korrekte Aussagen im Artikel enthalten? So wie Nachts scheint die Sonne nicht? Wenn man schon zusammenhanglose Fakten unter bringen will, wieso dann nicht universellere? ;)
 
Zuletzt bearbeitet:
X stammt aus einer Zeit,in der man nicht mal daran dachte eine Linie quer übers Bild zu ziehen. Wird Zeit das es endlich zu Grabe getragen wird und Platz für was Aktuelles macht. X hat seinen Dienst nun lang genug verrichtet, das klappernde Codegerüst soll den Ruhestand nun genießen ;)
 
Daedal schrieb:
Doch die Frage bleibt nach der Relevanz für den Artikel wann Nvidia Marketingbegriffe erfindet oder benutzt. Es wird für den flüchtigen Leser der Eindruck erweckt, hatte die GPU erfunden...

Und warum sind nicht noch mehr korrekte Aussagen im Artikel enthalten? So wie Nachts scheint die Sonne nicht? Wenn man schon zusammenhanglose Fakten unter bringen will, wieso dann nicht universellere? ;)
Der Grund: Herr Thommes hat sich beim Schreiben des Artikels inhaltlich SEHR nahe an der Quelle orientiert.
 
@Daedal

Gute Frage. Ich habs ehrlich gesagt auch nicht als inhaltlich naheliegend/relevant erachtet. Und die von dir genannten "Zusatzinfos" wären sicherlich ähnlich erwähnenswert gewesen :D

Im Vergleich zu Eyefinity als Marketingbegriff für flexibles Anordnen von Monitoren oder Pentium als Markenname für einen Prozessor wollte nv mit GPU eben hervorheben, dass ein Grafikchip um elementare Funktionen erweitert wurde, die zur Geometrieberechnung nötig waren. Insofern ist da schon nochmal ein gewisser Unterschied, aber was soll's. Ich glaub, das Thema ist ja eigentlich auch ein anderes.
 
Marco^^ schrieb:
DiskDumb ist aber die korrekte Bezeichnung !
Die man sich später zurechtgebogen hat. :)

Auf der Wikipediaseite steht ja sogar was passendes verlinkt.

Actually, it stands for `Copy and Convert' and was renamed to `dd` only because `cc' was reserved for the C compiler! This is the authentic information I got from the man pages of our Unix-V7 on our university PDP 11.

und wenn man in die man page guckt steht dort:

NAME
dd - convert and copy a file
 
Jepp und C++ zählt noch eins drauf ;-)

Von mir jedenfalls auch n herzlichen Glühstrumpf an X, hatte in meiner Zeit mit PCs schon oft damit zu tun und sowohl die Vor- als auch Nachteile erlebt. Mal schauen ob Wayland es schafft einen würdigen Nachfolger zu etablieren.
 
Jup. Auch nicht sehr einfallsreich, aber wenigstens ist B nicht der Nachfolger von A, obwohl D mal wieder der von C ist. Auch sehr clever.

Also manchmal meint man echt, dass der IT Gemeinschaft nicht besonders kreativ ist. Was spricht denn gegen einen vernünftigen Namen, wie zum Beispiel Java oder in diesem Fall Wayland? Ist doch auch OK und geht gleich viel besser von der Zunge. Es lässt sich außerdem viel besser googlen als B C oder D. :)
 

Ähnliche Themen

Zurück
Oben