News Die GPU auch als CPU nutzen?

finde die Diskussion a bissl lächerlich:

1. wurden die GPUs ja erschaffen, damit sie der CPU Arbeit abnehmen

2. dass sie in ihrem Bereich der CPU überlegen, ist ja auch Sinn der Sache

3. dass die GPU- die CPU-Architektur ersetzen wird is somit unfug, da die GPU ja spezialisiert ist
 
Bei modernen Renderen Z. B. 3D MAX, Lightwave, werden die Leistungen einer GPU schon heute genutzt.
 
Genau, das sollte Photoshop auch mal machen, das würde das Arbeiten viel schneller werden lassen. Man könnte ja auch noch den Graka-Speicher irgentwie mitnutzen z.B. als schnellen Cache, bei irgentwelchen berechnungen. Ich hab z.B. ein Programm, das den Arbeitspeicher auf fehler prüft. Und damit auch der gesamte Speicher geprüft werden kann, schreibt sich das Programm in den Grafikkartenspeicher.
 
Ich finde die Rechnenlesitung von GPU's beeindruckend, im endeffekt fungiert grade im 3D Bereich mehr die CPU als Co Prozessor, aber davon abgesehen, denke ich wenn man eine GPU den Befehlssatz einer CPU verpassen würde wäre man auch auch wieder in einer Leistungsregion einer CPU allerdings und das finde ich etwas verwunderlich bei wesentlich weniger Takt, das zeigt mir doch das man in CPU's langsam mal etwas mehr an der Effienzenz arbeiten sollte als nur an dem Anstaieg der Gigahertz ins unermessliche. Außerdem wäre ein Befehössatz Clearing vielleicht wirklich mal eine sinnvoller Schritt auch wenn heutige CPU's keine CISC CPU's mehr sind, sollte man sich doch letzten endes so langsam von den X86 Konzepten verabscheiden und selbige nur noch über neuerer Routinen wie ISSE/3DNow usw. realisieren, man schaue sich nurmal intels non-compatible CPU's an dort werden mit 800Mhz deutlich mehr Performance erreicht als mit 2-3ghz x86 compatible...aber dies ist ein gewagter Schritt da man so die Funktionsfähigkeit alter Programme riskiert deren neu Compilierung bzw. Neuprogrammierung wohl Milliarden verschlingen würden, allerdings glaube ich der Leistungs zuwachs wäre größer als der von 3Ghz auf 4Ghz...vielleicht liegt gerade darin die Chance der GPU's einen wichtigen Bestandteil im System zu übernehmen, da sie eben nicht vom Befehlssatz her x86 kompatibel sind...aber wie immer heißt es schauen was die Zukunft bringt!
 
Das würde mich zu sehr an die Slot-CPUs erinnern. :D

Eine GPU funktioniert doch total anders als eine CPU. Es ist schier unmöglich vernünftige Software zu programmieren.
 
das einzige was die gpu kann ist matrizen aufeinander klatschen, aber das extrem effizient. neuere karten können zudem noch kleine shader-programme ausführen.
was hier als ganz neue entdeckung dargestellt wird ist schon lange bekannt. in der einen oder anderen disziplin ist die gpu der cpu überlegen, aber eben nur in ganz speziellen teilgebieten.
macht euch keine hoffnungen dass ihr mit einem zusatzprogramm merh leistung aus der kiste holen könnt!
nebenbei-bemerkt hat man kein bild mehr während man die gpu zweckentfremdet! :D
und den grafik-ram als cache verwenden kann man vergessen, dazu ist die anbindung viel zu langsam!
 
Zuletzt bearbeitet:
Die Northbridge Anbindung ist wenn überhaupt nicht viel schneller als die GPU-Speicher-Anbindung. Neuere Karten haben ja schließlich 256Bit Speicherinterface.

Aber wie bereits gesagt ist es fast unmöglich die richtige Software zu finden.
Eine CPU rechnet mit hauptsächlich mit der Addition. Die komplett Software, die je erstellt wurde müsste umprogrammiert werden.
Außerdem sind die CPU und die GPU bereits optimal für deren "Einsatzgebiete" gebaut - soweit das die Technik zulässt.
 
Sherman123 schrieb:
Die Northbridge Anbindung ist wenn überhaupt nicht viel schneller als die GPU-Speicher-Anbindung. Neuere Karten haben ja schließlich 256Bit Speicherinterface.

Aber wie bereits gesagt ist es fast unmöglich die richtige Software zu finden.
Eine CPU rechnet mit hauptsächlich mit der Addition. Die komplett Software, die je erstellt wurde müsste umprogrammiert werden.
Außerdem sind die CPU und die GPU bereits optimal für deren "Einsatzgebiete" gebaut - soweit das die Technik zulässt.

also sorry, so ein quatsch mal jetzt. der speicher hängt im idealfall mit fsb-frequenz am prozessor. die graka per agp-bus. :rolleyes:
du hast ja nix vom tollen speicherinterface wenn´s nur an der gpu hängt. der weg zur gpu geht nunmal über den bus! das ganze ist doch momentan totale augenwischerei!
und wer hat dir das mit der addition erzählt!? das ist ja noch größerer quatsch!
sorry, aber so was tut mir in den augen weh!
 
Bus......Datenleitung ;) Jede Kupferleitung ist ein Bus!!!

Ich habe gemeint, dass die GPU die Prozesse im Grafikkartenspeicher auslagert.

CPU----Hauptspeicher
GPU----Grakaspeicher
Welche Kombination hier eine schnellere Anbindung hat ist nicht sicher.

Jetzt erklät ich dir mal wie ein Mikroporozessor ungefähr funktioniert. Wenn du es später genau wissen willst, missbrauchen wir die PM-Funktion!!

Im Mikroprozessor gibt es Bauelemente die arithmetische und logische Arbeitsvorgänge ausführen. Alle dies Arbeitsvorgänge werden mit der Addition oder negativen Addition berechnet. Binärcode setzt sich aus den Zahlen 1, 2, 4, und 8 zusammen. Im Anhang habe ich es noch einmal genauer erklärt.

Aus diesem Code wird mittels Addition ein Ergebnis berechnet. Wenn dir diese Erklärung noch nicht genügt, ich gebe zu sie ist etwas kurz geraten, dann habe ich kein Problem damit Seiten zu schreiben.:p


Sehe gerade, dass sich keine Excel Datein raufladen lassen.
Was ist das für eibne Fehlermeldung?
Sorry, your attachment could not be accepted because your administrator's attachment quota would be exceeded by 253,13 MB bytes. He/She has been notified of this.
 
Zuletzt bearbeitet:
Wenn das ohne weiteres möglich gewesen wäre, hätte man das schon vor Jahren so gemacht, dahinter sitzen kluge Köpfe, die wissen schon warum man das nicht so realisiert hat.
Jeder mir bekannte Computer hat einen extra Grafik Chip, ob Amiga, Mac oder was weiss ich was es noch so gibt.
Die Grafikkarte übernimmt ja schon die schwerste arbeit, wenn das alles die CPU machen müsste, oje, bei der heutigen Grafik müsste man dann min. eine 20ghz Cpu haben.
Anders herum, die GPU hat jede menge zutun im 3D bereich, ich glaube nicht das es eine gute Idee wäre, ihr auch noch CPU Sachen erledigen zu lassen, eine 2ghz CPU hat dank der schnellen GPU doch fast nix mehr zutun.
 
Eine CPU hat schon so einiges zu tun.:D Wenn sie zu wenig macht, kannst ja Seti laufen lassen.:D


@Green Mamba
Ich probier nochmal den Anhang hinaufzuladen.
Sorry wieder der selbe Fehler :
Zahlen.doc:
Sorry, your attachment could not be accepted because your administrator's attachment quota would be exceeded by 253,13 MB bytes. He/She has been notified of this.
 
Sag mal dein P4Pe Board "bessere Ausgabe", was ist das für eins? gibt es davon aus schlechte Ausgaben oder wie?
Woran erkennt man die bessere Ausgabe? :)
 
@sherman
sorry, dass ich gestern nacht etwas reißerisch geschrieben hab, war sternhagelvoll. :D
jetzt mal zum thema.

Sherman123 schrieb:
Bus......Datenleitung ;) Jede Kupferleitung ist ein Bus!!!
falsch, denn ein bus wird dadurch gekennzeichnet dass mehrere geräte eine leitung benutzen!

Ich habe gemeint, dass die GPU die Prozesse im Grafikkartenspeicher auslagert.

CPU----Hauptspeicher
GPU----Grakaspeicher
Welche Kombination hier eine schnellere Anbindung hat ist nicht sicher.

Jetzt erklät ich dir mal wie ein Mikroporozessor ungefähr funktioniert. Wenn du es später genau wissen willst, missbrauchen wir die PM-Funktion!!

Im Mikroprozessor gibt es Bauelemente die arithmetische und logische Arbeitsvorgänge ausführen. Alle dies Arbeitsvorgänge werden mit der Addition oder negativen Addition berechnet.
auch falsch, denn es gibt mehr als nur addierer. ;) es gibt sowohl einheiten die dividieren also auch für die multiplikation! lediglich die subtraktion wird vom addierer erledigt. moderne multiplizierer arbeiten nach dem booth´s algorithmus, der hauptsächlich right-shifts vollzieht.
anzumerken ist dass für jede einzelne rechenart und jedes zahlenformat eine eigene einheit zur verfügung steht.


Binärcode setzt sich aus den Zahlen 1, 2, 4, und 8 zusammen. Im Anhang habe ich es noch einmal genauer erklärt.
sorry, aber wieder falsch, denn binärcode setzt sich nur aus nullen und einsen zusammen, und nicht aus den ersten 4 zweierpotenzen!?

Aus diesem Code wird mittels Addition ein Ergebnis berechnet. Wenn dir diese Erklärung noch nicht genügt, ich gebe zu sie ist etwas kurz geraten, dann habe ich kein Problem damit Seiten zu schreiben.:p


Sehe gerade, dass sich keine Excel Datein raufladen lassen.
Was ist das für eibne Fehlermeldung?

du musst mir auch keine seiten schreiben, (aber danke für das angebot! :))denn ich habe vor 6 monaten das knapp 1000 seitige buch "computer organisation & design" durchgeackert. darin werden die meisten facetten von einfachem prozessor-design angesprochen.
 
Zuletzt bearbeitet:
Binärcode setzt sich aus den Zahlen 1, 2, 4, und 8 zusammen. Im Anhang habe ich es noch einmal genauer erklärt.
sorry, aber wieder falsch, denn binärcode setzt sich nur aus nullen und einsen zusammen, und nicht aus den ersten 4 zweierpotenzen!?
Hier liegst du aber im Irrtum. Wenn ich diese verdammte Datei endlich raufladen könnte, würdest du sehen was ich meine. Ich probiers mal hier.




Zahlen Binärcode

8 4 2 1
0 0 0 0 0
1 0 0 0 1
2 0 0 1 0
3 0 0 1 1
4 0 1 0 0
5 0 1 0 1
6 0 1 1 0
7 0 1 1 1
8 1 0 0 0
9 1 0 0 1
10 1 0 1 0



Spalten mit einer 1 multipliziere mit der oben stehenden Zahl. Bsp.: 0*8 + 4*1 + 0*2 1*1 = 5

Dieses System lässt sich auf alle Zahlen ausweiten. Wie du siehst wird hauptsächlich die Addition verwendet.

EDIT:
Du musst dir die "8" eine Spalte weiter links denken.
 
Zuletzt bearbeitet:
ah, jetzt versteh ich was du meinst! :D
ich glaube allerdings dass du auf der falschen baustelle bist! was du meinst ist ja die umrechnung vom binär ins dezimalsystem, oder? das hat nix mit hardware oder prozessoren zu tun, sondern ist eine eigenschaft von stellensignifikanten zahlensystemen.
die hardware hat es nicht nötig die zahlen in das dezimalsystem umzurechnen. es wird direkt im binärsystem gerechnet.
 
die hardware hat es nicht nötig die zahlen in das dezimalsystem umzurechnen. es wird direkt im binärsystem gerechnet.
Doch!! Sie werden im Dezimalsystem eingespeißt und im Dezimalsystem ausgegeben. Oder kennst du jemanden, der sein Programm im Binärcode geschrieben hat??:p

Lediglich berechntet wird im Binärsystem. Bei der Umrechnug wird ein nicht zu verachtender Teil der gesamten Rechenleistung verbraucht. ;)

In meinem Technik-Buch wird der Mikroprozssor übrigens auch sehr ausführlich beschrieben. Macaulay's Mammut buch der Technik schimpft sich das 400 Seiten Monster. :o
 
Sherman123 schrieb:
Doch!! Sie werden im Dezimalsystem eingespeißt und im Dezimalsystem ausgegeben. Oder kennst du jemanden, der sein Programm im Binärcode geschrieben hat??:p
nach dem compilieren eines programms liegt binärcode vor.

Lediglich berechntet wird im Binärsystem. Bei der Umrechnug wird ein nicht zu verachtender Teil der gesamten Rechenleistung verbraucht. ;)
das halte ich für ein gerücht. intern liegen alle daten im binärformat vor, also auf der der festplatte und im arbeitsspeicher. das einzige wo umgerechnet werden muss ist bei der benutzerinteraktion, also wenn eine zahl mal am bildschirm dargestellt werden soll. das ist aber in der gesamtheit betrachtet wohl eher die absolute ausnahme! ;)


In meinem Technik-Buch wird der Mikroprozssor übrigens auch sehr ausführlich beschrieben. Macaulay's Mammut buch der Technik schimpft sich das 400 Seiten Monster. :o


1234567890
 
Ein einfacher Rechner besteht aus Eingabeeinheit-----Prozessor----Ausgabeeinheit.
Ein Personal Computer besteht aus Eingabeeinheit-----Prozessor---Zwischenspeicher----Ausgabeinheit.
Da kann schon einiges umgerechnet werden. Speichereinheit habe ich bewusst wegelassen.

Alles und wirklich alles was dein Bildschirm, deine Boxen, dein Joystick (virbireren), etc. darstellt wird vom Binärsystem umgerechnet. Ein Bild besteht genauso wie alles andere aus Nullen und Einsen. Wenn du eine mathematische Formel (sind die meisten Anwendungen, Spiele,...) lösen willst, dann wird vom Dezimalsystem in das Binärsystem umgewandelt. Im Binärsystem wird gerechnet. Das Signal kommt zur Ausgabeinheit und stellt dar, was gefragt ist.

Wenn man ein Programm schreibt, wird der Buchstabe on-the-fly umgerechnet und bleibt bis zur ausgabe ein Binär-code.

Aber du hast recht, die Umrechungsarbeit frisst natürlich weniger Leistung als die reine Berechung.
 
nee sherman, so ist es wirklich nicht! warum sollte sich der rechner die arbeit machen die daten hin und herzurechnen, und wie sollte man intern eine zahl im dezimalsystem darstellen wenn nur 0 und 1 zur verfügung steht? eine dezimaldarstellung existiert nur am bildschirm, oder wenn man die zahl als string darstellt, also mit ascii-zeichen. damit kann man nicht rechnen, und intern wird auch das wieder zeichenweise als eine reihe von binärzahlen von jeweils 8 bit.
 
Zurück
Oben