Sollte nicht mehr Intelligenz den Output einer Graphikkarte erhöhen?

Hellmut1956

Cadet 4th Year
Registriert
Juni 2011
Beiträge
64
Ich bin 1986 Bei National Semiconductor als Field Application Engineer, FAE, für ihre Graphik-Produktfamilie DP8400 angetreten.

Damals gab es 2 Anbieter für Graphik-Funktion mit einem integrierten Prozessor. Ti mit dem 34010 und eben NSC mit dem DP8400. Biss dahin und noch eine Übergangszeit waren Graphik-Controller wie der NEC µPD7220 die beherrschende Lösung auf dem Markt. Später habe ich ein Labor geleitet welches mit einer NSC32G060 CPU eine Lösung für den Minitel Markt in Frankreich entwickelt hat.

Bei all diesen Entwicklungsschritten im Markt der Graphik-Lösungen wurde Gehirnschmalz eingesetzt um die Funktionselemente die die Graphikleistung bestimmten, zu erhöhen. So gab es VIDEO-DRAMs die eine Speichermattrix mit eine Schift-Register kombinierten. Dabei wurde die Zeit in welcher eine Graphik-Einheit auf die Speicher-Matrix zugriff, das Schift-Register zu einer DAC-Einheit gechoben. Die Zeiten wo der Zeilen-Rücksprung und Seiten-Rücksprung dafür genutzt die Register zu laden.

Die Bandbreite auf zur Speichermatriz für Scheib-Lese-Zugriffe wurde erhöht in dem man für jede Bit/Pixel eine eigene Speichermatrix hatte und die logische Verknüpfung durch BPUs, je einen pro Bit-Matrix. Den Prozessor in die Graphik-Engine zu integrieren war die Entwicklung die von den Graphik-Kontrollern wegführte.

Ich war damals Mitglied der Abteilung der amerikanischen Computer Technik welche die jährlichen SIGGRAPH-Kongresse veranstaltet. da hatte ich mein Ohr am Puls der Zeit in der Entwicklung der Computer-Graphik. Schon damals wurde an den heutigen Techniken geforscht die in den Funktionen in heutigen Graphik-ICs zum Einsatz kommen.

So werden diese eigentlich uralten Techniken seit damals mächtiger gemacht, integriert und fortentwickelt. Meine These ist, dass man die Entwicklung immer mehr höhere Frequenzen, immer mehr Strom, immer mächtigere Funktionsblöcke in Integrationen verknüpft, zuerst in einem Silizium und jetzt auch in mehrere.

Man sieht aber bereits Entwicklungen die mit mehr Intelligenz, mehr Verständnis der Elemente die eine Funktion realisieren zu neuen Möglichkeiten führen.

So sieht man wie Envidia von der Verwendung von Graphikkarten und ihrer GPUs für KI zu speziellen Angeboten für solche Rechen-Farmen entwickeln und anbieten die der Datenanalyse und der KI mehr Leistung intelligent anbieten und so auch den Markt der Graphikkarten, welcher durch die enorme Nachfrage diese als Recheneinheiten zu verwenden die Preise in gewaltige Höhen geführt hat und damit auch die Verfügbarkeit von Graphikkarten in den Keller bringen.

Auch bei den Techniken der KI kommen z-B. Neuromorphe-ICs, AKIDA z.B., die Leistungsbereitstellung milliardenfach vergrößern, bei Bruchteile des Leistungsbedarfes der GPU ihren Einsatz in Smart Phones möglich machen. Hier muss die Technologie der KI zur Nutzung neuromorpher Architektur durch Forschung schritt halten.

Deshalb meine These, Graphikkarten sollten eben durch intelligente Verfahren die Graphikleistung erhöhen. Dabei eben nicht nur mehr elektrische Leistung in immer höher integrierte Bauteile als einzigen Entwicklungspfad zu haben.

Ich habe persönlich die Flugsimulation als Hobby und meinen neuen PC dafür konfiguriert. Dabei setze ich auf den Microsoft Flug Simulator 2020. Bei dieser Anwendung können dezidierte Funktionen die Funktionalität einer Graphikkarte und des Motherboards die Möglichkeiten rasant verbessern. Dieser Flugsimulator hat die Tendenz unterschiedliche Quellen dafür zu nutzen den Nutzer mit immer besserer Funktionalität zu versorgen. Hier kommen von der Software kreative neue Funktionalitäten und Möglichkeiten für die Hardware Entwicklung. Mal sehen welche neue Hardware Funktionalitäten sich zeigen werden. VR stellt ein Feld dar, als Beispiel, wo neue Entwicklungsmöglichkeiten entstehen. So hatte ich vor gut 2 Jahrzehnten Kontakt zwischen SNI und einer kleine Hochtechnologiefirma und Motorola Halbleiter wirklichen 3D Sound z realisieren. Diese kleine Firma aus dem Silikon Valley hatte für das US Militär eine 3D Sound Technologie entwickelt die frappierend besser ist als alles was sich heute 3D Sound nennt. Wir haben bei Motorola Semiconductor mit SNI einen Stand auf der Comdex Messe in Las Vegas ein Programm vorgestellt, ein damals sehr beliebtes Shooter Programm.

Auch damals lernte ich z.B. das kritische Verhalten von VR-Brillen wenn das Bild und der Ton nicht voll synchron laufen. Es verlangt sehr viel und das Oculus Quest 2 VR System verursacht auch Übelsein wenn man es eine Weile nutzt. Auch hier erwarte ich große Entwicklungen.

Aber ein Flugimulator und ein Shooter Programm stellen ganz unterschiedliche Anforderungen. Eine Fortentwicklung der Graphikkarten dürfte manche Funktionen über alle Anwendungen nutzen, andere werden sich aber diversifizieren. Der AKIDA IC von Brainchip zeigt wie eine Funktion, hier neuromorphe KI, milliardenfach höhere Leistung bietet und dabei so preiswert und so wenig elektrische Leistung benötigt, dass man diese in ein Smartphone integrieren kann.
 
Mit Intelligenz würde man erkennen, dass es einfach Grenzen gibt, vor allem physikalische.
 
Zuletzt bearbeitet:
Intelligenz nur von einer Seite bringt was ... ?

Intelligente Grafikkarte aber unintelligente Software ? umgedreht ?

es ist ja immer noch ein Zusammenspiel von so vielen Teilen das man nicht einfach sagen kann KI und es wird alles besser. Reagiert die KI so wie der Spieler.. kann sie sein Verhalten vorrausahnen und so die passenden Texturen vorausladen?

Immerhin sind es ja Unified Shader und nicht wie früher spezialisierte ... aber ja ich bin auch dafür das man die Stromaufnahme nicht in die Regionen bringt wie man es aktuell anvisiert.

VR ist für mich z.B. totaler Quark .. liegt aber auch daran das ich einer der 5 % bin die kein Räumliches Sehen haben ...

Gab mal Raumklang per Hardware beschleunigt EAX ... hat Microsoft begraben durch "darf nix mehr auf Hardware zugreifen"
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Ich bin mir nicht ganz sicher ob ich den Eroeffnungspost richtig verstehe.

Ein Problem ist, dass man immer noch alte Funktionen mitschleppen und alte Engines und Software supporten muss. Und diese Programme werden oft zum Vergleich genutzt.
Eine theoretische Grafikkarte koennte 150fps in 8k bei 50W mit beeindruckenden Effekten liefern, wuerde sich aber nicht verkaufen, wenn es dafuer nur ein Spiel gibt (oder gar keins). Solche Spiele werden nicht entwickelt, weil keiner solch eine Grafikkarte kauft. Eine neue Karte muss immer noch mit der IW engine (CoD) Mehrleistung bringen, damit in Benchmarks der Balken lang ist und die Karte gekauft wird.
Viele Technologien und Therorien haengen in Henne/Ei Problemen.
 
  • Gefällt mir
Reaktionen: Backfisch, UNDERESTIMATED und novemberkind
Hellmut1956 schrieb:
Der AKIDA IC von Brainchip zeigt wie eine Funktion, hier neuromorphe KI, milliardenfach höhere Leistung bietet und dabei so preiswert und so wenig elektrische Leistung benötigt, dass man diese in ein Smartphone integrieren kann.
Der gesamte Post klingt etwas nach Werbung für den Akida IC, aber abseits davon ist noch gar nicht gezeigt, dass das SNN Konzept wesentlich besser ist, als andere CNN in Hardware.
Zu den Grafikkarten: Es stimmt schon, dass da nicht viel neues passiert ist die letzten Jahrzehnte, liegt aber auch einfach daran, dass deren Hauptaufgabe immernoch "Rasteresierung" ist. Man hat nur gemerkt, dass dort die massiv-parallelen Ausführungseinheiten oft brach liegen und deswegen auch für andere Dinge verwendet werden können: Physik, Audio, GPGPU, KI,....
Und klar könnten hier dedizierte Chips die einzelnen Aufgaben übernehmen, was die Grafikkarte entlasten würde. Aber solange da kein Bottleneck ist, scheint es noch nicht nötig. Es muss ja die Kombination aus CPU/GPU passen. das Futter muss ja irgendwo herkommen ;)
 
Ich bin Hausmann, ich bin arbeitsunfähig wegen einer Gesundheit, ich besitze keine Brainchip Anteile, köntne ich mir garnicht finanziell leisten. Habe also keinen für Grund Brainchip Werbung zu machen. Aber ich habe es als Beispiel aufgeführt wie man durch Intelligenz manches Neues findet was einen massiven Einfluss auf neue Lösungsmöglichkeiten finden kann. Nicht nur immer schneller, immer breiter, immer teurer. Diese Vorgehensform kommt immer wieder an seine Grenzen und etwas dann Anderes stellt die Basis für die weitere Steigerung der Funktionsleistung.

Zu VR. Da ich schon damals gesehen habe als ich mit 3D Sound Berührung hatte. Das Gefühl im Geschehen zu sein wird von einer wirklichen 3D Sound sehr viel stärker als bei der Graphik. Das Verfolgen, tracking, der Kopfstellung kann als ein wichtiger Aspekt gesehen würde VR zu gestalten. Das aber eben nicht nur auf die Graphik anwenden, sondern auch beim Sound.

Aber im Zusammenhang mit der Graphik "nur" 5% sagen st falsch. Die Displays in der Brille können sehr hohe Pixelauflösung haben und heute verfügbar ein RTX3080 um die beiden Bilder zu pflegen kann den Sichtraum der Augen sehr gut mit Bildinformation mit der passenden Blickrichtung, head tracking, versorgen. Es darf nicht vergessen werden, das auch das menschliche Auge nicht über den gesamten Blickfeld scharf schaut und Farbe erkennt. Das menschliche Gehirn macht aus der Information das es vom Auge erhält dann erst für uns eine Wahrnehmung der Realität macht! Ich warte auf ein Oculus Quest 3 und höher VR System um mein im Geschehen sein Empfindung dann geeignet wahrnehmen zu können ohne Schwindelgefühle.

Beim Flugsimulator kann mit einem head tracking System auch ohne VR schon eine sehr erweiterte Bildqualität auf dem Monitor das Erlebnis im Flugsimulator verbessern.
 
Zuletzt bearbeitet:
Dann entwickle neue Dreiecke zur Darstellung der Landschaft. Denn daran hängt es aktuell. Oder prinzipiell ein System zur räumlichen Darstellung... Und Raytraycing ist auch/noch nicht schneller.

Und hast du auch bedacht das die immer noch in der CPU berechnet werden?
 
Hellmut1956 schrieb:
das Oculus Quest 2 VR System verursacht auch Übelsein wenn man es eine Weile nutzt.
Das legt sich mit der Übung. Je länger man VR nutzt, desto weniger übel wird einem. Zumindest bei den meisten Menschen.

Ich kann mittlerweile stundenlang ohne Absetzen in VR sein ohne Übelkeit.

Abgesehen davon würde ich nicht zustimmen, dass sich bei GPUs nicht viel getan hätte. In der Zeit zwischen deinen Anfängen und jetzt wurde das gesamte Konzept von GPU Pipelines und Flexibilität komplett überarbeitet, unified shader, GPGPU war ein riesiges Ding, es wird ständig erweitert um neue spezialisierte Beschleuniger für zB Encoding, Decoding, Ray Tracing, Deep Learning, intelligentere Algorithmen zur effizienteren oder genaueren Berechnung von Effekten, Algorithmen für effizientere Datenstrukturen, etc.

Hellmut1956 schrieb:
Deshalb meine These, Graphikkarten sollten eben durch intelligente Verfahren die Graphikleistung erhöhen
Also wieso These? Genau das ist doch der Fall.
Nur ist die Komplexität dieser Chips heutzutage so gigantisch höher als noch zu deiner damaligen Zeit, dass eine einzelne Neuerung weniger drastisch wirkt.

Durch stumpfes Hochskalieren bestehender Ansätze mit mehr Energie wären wir nicht ansatzweise da, wo der Stand der Technik heute ist.
 
Und nochmals was zu VR.. gibt auch genügend Menschen die Probleme mit Motion Stickness oder Kopfschmerzen haben.

Kenne ich selber je nach Spiel und Grafikqualität bekomme ich auch Kopfschmerzen.. wenn ich da an Doom 1-2 denke oh oh...Unreal Tournament ging wieder ohne Probleme.. aktuelle Spiele mit schwankender Kamera geht Mal und Mal gar nicht.

Und nein geübt hab ich sicher oft genug.. das kann auch stark tagesabhängig sein.

Auch Bewegungsunschärfe ist da negativ... Oder deep of field Betrachtung also die Fokussierung auf einen gewissen Bildbereich da es in den meisten spielen auch zu stark übertrieben wird.
Aber jeder Mensch empfindet das anders.
 
@xxMuahdibxx: Zu der Zeit als ich mich mit 3D Sound beschäftigte wurden keine VR-Brillen für Verbraucher in den Markt gesetzt, da es gewichtige gesundheitliche Gefahren bekannt waren. Leistungsfähige VR-Brillen waren aber extrem teuer, was für das Militär in den USA kein Problem ist.

@Powl_0: Bis auf die KI-Themen waren die anderen von dir genannten Techniken in der Wissenschaft bekannt, aber die Halbleiter konnten diese Techniken damals nicht bewältigen, da ICs noch relativ wenig Inhalt hatten. Ich verweise da auf den Prozessor MC64000 der seinen Namen davon erhielt wieviele transistor äquivalente den Prozessor implementierten.Damals waren wir davon beeindruckt wie riesig das war. Heute hat man milliarden und kann so viele Techniken implementieren und immer leistungsfähiger machen. Aber die Entwicklung des Leistungsbedarfes der Graphikkarten zeigt eine typisch evolutionäre Entwicklung die immer mehr Leistung verlangt.

Das ist aber z.B. bei der KI und dem Auftauchen von neuromorphen Architekturen anders und somit ein gutes Beispiel was ich meine. Ganz konkret und reichlich Information kann man dazu auf der Webseite von Brainchip finden. Der Leistungsbedarf ist so gering das man diese in ein Handy zusätzlich integrieren kann. Die Leistungsfähigkeit aber tatsächlich milliardenfach größer. Das macht diese Technologie so interesant, dass es gewaltige Anstrengungen gibt die Entwicklung der Wissenschaft und dazu Software welche sie implementiertzu pushen welche diese Hardware dann wirklich effizient nutzen können.

Eine solche nicht evolutionäre Entwicklung im Bereich der Graphik wird benötigt. schau einfach mal nach welchen Leistungshunger Graphiksysteme für die nächste Generation benötigt wird, bei Envidia RTX4000. Da braucht man im Computer-Zimmer keine extra Heizung mehr!

Man sieht allerdings, dass man jetzt daran arbeitet nicht mehr Graphikkarten für KI zu nutzen, sondern jeweils für Graphik und für Data-Anwendungen und Server eigene Produkte zu entwickeln. Das erlaubt die Implementierung für die verschiedenen Anwendungsbereiche zu optimieren.
 
Hellmut1956 schrieb:
*Nvidia

Hellmut1956 schrieb:
genannten Techniken in der Wissenschaft bekannt
Na klar, geht ja nicht anders. Die Umsetzung der Chips aus deiner Zeit basiert doch auch auf Forschung, die schon Jahrzehnte vorher begann.

Hellmut1956 schrieb:
Leistungsfähigkeit aber tatsächlich milliardenfach größer
Abwarten, bis wirklich was Handfestes kommt. Versprochen wird viel. Denn das klingt wie üblich zu gut, um wahr zu sein.

Hellmut1956 schrieb:
Leistungshunger Graphiksysteme für die nächste Generation benötigt wird
Bisher nur Gerüchte, und wenn es mit einer entsprechenden Leistungs- und somit Effizientsteigerung einher geht, ists immer noch ein Nettogewinn.

Hellmut1956 schrieb:
Aber die Entwicklung des Leistungsbedarfes der Graphikkarten zeigt eine typisch evolutionäre Entwicklung die immer mehr Leistung verlangt.
Der Stromhunger bei Grafikkarten ist über 10 Jahre lang relativ konstant geblieben (die Leistung in der Zeit aber um ein Vielfaches gestiegen!), erst mit den RTX 3000 und nun 4000ern hat der Hunger einen ordentlichen Schritt nach oben gemacht.
 
Und KI kann nicht die Lösung für alles sein... Denn auch die kann sich verrechnen.

Man schaue sich an wie man einer KI beibringt Auto zu fahren in einem Computerspiel... Wie viele Interationen es braucht bis ein gutes Ergebnis erzielt wird ... Und wie weit der Mensch trotzdem schneller ist da er mehr Informationen bekommt und verarbeiten kann.
 
ImHo wird sowieso alles streaming sein in 10 Jahren. Die Entwicklungskosten für z.B. eine Spielekosnole sind gigantisch. Mit Abomodellen (Netflix, youtube, ...) wächst die heutige Jugend sowieso auf.
Die relevanten Internettechnologien gehen auch immer weiter was Latenzverringerung angeht.

Realistischer 3D Sound über Kopfhörer wird kommen in ca. 10 Jahren. Aktuell gibt es noch diverse offene Probleme, aber grundsätzlich weiß man, wie das funktionieren muss und erste Prototypen fürs Labor gibt es auch.

Neuromorphe Chips - ka, aber klingt nicht so dass es einen unmittelbaren Einfluss auf Grafik haben wird.
 
@Powl_0: Danke für deine Antworten. Ich glaube nicht dir meine Botschaft vermitteln zu können. Die Amis nennen "out-of-the-box" thinking.

@xxMuahdibxx: Ki gibt es als starke und schwache KI. Das was wir bisher erforscht haben ist die schwache KI. Starke KI ist das was in Hollywood Filmen als KI verbreitet wird. Zur schwachen KI gehören al die Arten die du aufzählst. Im Prinzip eine Evolution dessen was früher Experten-Systeme genannt wurde. Auch neuromorphe Architekturen sind nur eine Evolution der Hardware und Software auf welcher schwache KI laufen kann. KI war nur ein Beispiel dafür wie neue Lösungsansätze Evolutionssprünge alte Aufgaben billiger, weniger Leistungshunger und mächtiger wird. Wie so was entsprechendes in Systemen der HMI aussehen kann weiß heute noch niemand. Aber Analogien darauf anzuwenden um eine übergeordnete Sicht zu ermöglichen ist halt etwas das mir spaß macht. Habe so etwas in meinem Berufsleben mehrfach erlebt.

@BeBur: Da 3D Sound etwas ist was ich schon vor über 2 Jahrzehnten als existierend erlebt habe. Was neuromorphe Architektur als Hardware für die KI macht ist halt nur auf KI bezogen. Was eine intelligente Lösung für graphische Anzeigen wäre weiß ich nicht. Würde sonst ein Startup gründen. VR ist da schon ein neuer Zweig, wenn auch im Flugmodellbau schon seit vielen Jahren man Flugmodelle mit der Bildinformation einer kleineren Kamera an Board, waren auch schon eine Art Dronen.
 
Ich muss gestehen, ich verstehe nicht ganz den Sinn dieses Threads bzw. die Frage. 😅
Für mich reduziert sich das jetzt auf:"Kann man mit neuartigen Lösungsansätzen die Leistung von GPUs erhöhen?"
Und die Antwort ist natürlich:"Ja, das passiert die ganze Zeit!"

Was jetzt aber die nächste Stufe ist, die die Grafikhardware revolutionär verbessert, das weiß ich auch nicht. :D

Meiner Meinung nach sind die heutigen (und vergangenen) Grafikkarten eh nur ein Weg hin zum perfekten Raytracing. Wenn die Grundperformance dafür da ist, dann braucht man die ganzen "Tricks" nicht mehr, mit denen die Karten heute arbeiten um schnell zu sein.
Dann braucht man neue Tricks für's Raytracing um dort die Leistung zu erhöhen und hier schlummern sicherlich Dinge auf die man ordentlich Hirnschmalz verbraten kann.
 
Raytraycing ist aber am Ende keine KI...

@Hellmut1956 EAX für 3d Sound gibt's auch schon seit 1998

A3D schon 1997.. Im consumer Bereich später..

also die Frage ist immer noch offen was kann eine KI machen so daß die Leistung der Grafikkarte ansteigt.
 
@Deeen doch ist der threadtitel
 
"mehr Intelligenz" heißt doch nicht gleich KI Verfahren...
Ergänzung ()

Hellmut1956 schrieb:
KI war nur ein Beispiel dafür wie neue Lösungsansätze Evolutionssprünge alte Aufgaben billiger, weniger Leistungshunger und mächtiger wird
 
  • Gefällt mir
Reaktionen: BeBur
Hellmut1956 schrieb:
Da 3D Sound etwas ist was ich schon vor über 2 Jahrzehnten als existierend erlebt habe.
Das 3D Sound was es seit 20 Jahren gibt ist genau so wenig ausgereift wie VR vor 30 Jahren oder vieles anderes, was man "vom Prinzip her" machen kann, aber wo grundsätzliche Probleme aufgrund technologischer Hürden ungelöst blieben für Jahrzehnte.

Naiver 3D Sound ist natürlich sehr einfach, du nimmst zwei Mikrofone, stellst die nebeneinander und nimmst dann Töne auf. Das kannst du heute auch virtuell bzw. simuliert machen bei Bedarf.
Damit kannst 3D im Sinne von "ist rechts" oder "ist links". vorne/hinten unterscheiden ist aber schon direkt unmöglich. Ebenso unmöglich ist es über Kopfhörer Ton so abzuspielen, dass du glaubst, das Geräusch kommt von 10 Meter hinter dir oder neben dir oder vor dir. Wir haben keinen "VR ready" sound der mir vorgaukelt, das Gespräch das ich in VR sehe höre ich auch vor mir. Insbesondere bei AR ist das sehr wichtig für Immersion und eben besonders schwierig.

Das Gehirn scannt kontinuierlich die räumlichen zusammen mit den akustischen Begebenheiten und kann Geräusche dadurch gut einordnen. Damit Kopfhorergeräusche nicht mehr künstlich klingen muss daher im Prinzip auch von der Technik der Raum kontinuierlich akustisch eingemessen werden. Dazu berücksichtigt das Gehirn auch die Kopfbewegung, wenn die Kopfhörer das nicht auch machen wird man niemals echtes räumliches akustisches Empfinden haben.
Wahrnehmung der Umwelt ist evolutionär ein Kernbereich des Gehirns und wir versuchen hier aber das Gehirn zu überlisten. Das ist bei Ton deutlich schwieriger als bei Sicht.

Es dauert also noch, aber was ich so gehört habe darf man wohl recht zuversichtlich sein, dass wir in 10 Jahren nicht nur einen AR-Avatar der Person sehen, wenn sie uns anruft, sondern dieser Avatar dann auch so klingt, als stünde er direkt vor uns.

Deeen schrieb:
Meiner Meinung nach sind die heutigen (und vergangenen) Grafikkarten eh nur ein Weg hin zum perfekten Raytracing.
Jedenfalls muss es nicht ewig weiter gehen, das Gehirn selber zusammen mit den Augen hat auch nur eine begrenzte Auflösung, der Rest wird mithilfe von NI (Natürlicher Intelligenz ;)) in Echtzeit berechnet und uns schlicht vorgegaukelt. Mit Bildschirm gibt es da schon potenzial für täuschend echte Illusionen - allerdings bedarf es da einem Mindesetabstand vom Bildschirm (1-2 Meter, glaube ich). Bei VR/AR wo man die Pupillenbewegung berücksichtigen kann denke ich werden wir da ebenso zeitnah (also 10-30 Jahre) täuschend echte Ergebnisse haben.
 
Zuletzt bearbeitet:
Zurück
Oben