Bericht TSMC × Europa: Eine französische AI-GPU mit 288 GB HBM3e als Vorbild

Alphanerd schrieb:
Jo. ASML und die ganzen Mittlelständler, die die Belichtungsmaschinen erst möglich.machen.
Es gibt sehr viele hidden Champions in Europa, die so nicht sichtbar sind, die gleichzeitig allerdings eine unglaubliche Bedeutung haben. Das wird immer gerne vergessen, wenn man im öffentlichen Raum über bestimmte Dinge spricht.
 
  • Gefällt mir
Reaktionen: Alphanerd, conf_t und latexdoll
raychan schrieb:
Wusste auch nicht das so viele Firmen in Europa dabei sind.
Ich habe es nebenan im Pi-Thread wieder gemerkt, vieles ist öffentlich schlicht nicht sichtbar. Wir haben alleine in Deutschland zwei Firmen (von denen ich weiß) die im RasPi-Format SBCs bauen. Gibts halt nicht bei Amazon oder Reichelt zu kaufen.
 
  • Gefällt mir
Reaktionen: raychan und Alphanerd
Sehr gerne mehr Berichte in der Form.

Das war in vielen Bereichen sehr interressant.
 
DevPandi schrieb:
Es gibt sehr viele hidden Champions in Europa
https://www.computerbase.de/forum/t...8-gb-hbm3e-als-vorbild.2259552/#post-31123752

Hatte ich ich hier ja weiter ausgeführt.
Ergänzung ()

Jan schrieb:
ist hoffentlich ohne AdBlocker etc. unterwegs oder hat direkt Pro!
Ersteres, aber Ehrensache.
Jan schrieb:
Denn derartige Inhalte lest wirklich nur ihr "Nerds"!
Da muss ich, als euer König, ja mit gutem Beispiel voran 😜
 
Phunkberater schrieb:
...
Kürzlich wurde in einem Podcast zu KI die Meinung vertreten, dass die Modelle zum Teil deswegen so groß sind, bzw. sein müssen, weil sie sich die Trainingsdaten "merken". Wenn es gelingen würde diese gemerkten Daten aus dem Modell zu entfernen und nur das "Denkgerüst" übrig bleibt, würden sie möglicherweise bei deutlich geringerer Größe ähnlich gut oder besser performen.
...

Wenn dem so wäre, wäre das aber schlecht. Das nennt man Overfit, d.h. das Modell speichert die Trainingsdaten und ist auf diesen "sehr gut", kann aber kann "generalisieren", was eigentlich das Ziel eines guten Modelltrainings ist. Überlicherweise trainiert man mit Datenset A und vailidert während des Trainings laufend mit Datenset B die Performance. Datenset A und B sind dabei gleichartig, aber natürlich nicht identisch. Aber die großen AI-Buden wissen das natürlich, daher würde ich bezweifeln, dass die üblichen Modelle nur "auswendig" gelernt haben.
 
Klingt gut, ist für ein Europa, das eigenständiger werden möchte, aber durchaus auch ein Hindernis – das wurde in Amsterdam in Gesprächen klar. Die Kehrseite der Medaille: Allein dauert der Weg viel zu lange und die vermutete Kostenersparnis, die zu Anfang oft ein ausschlaggebendes Thema war, führte am Ende oft dazu, dass Produkte viel zu spät fertig geworden sind und dann eventuell überhaupt keine Chance mehr am Markt hatten.
Klingt für mich jedoch wieder nach: wir wären gerne unabhängig, aber wenn es einer billiger oder innovativer macht, kaufen wir eben dort. Bevor es ans optimieren geht, sollte man überhaupt einmal eine sichere Produktion auf die Beine bekommen...

Wobei am Ende eh die Frage ist: wie unabhängig ist man spätestens beim Einkauf von Rohstoffen zur Produktion, Sprichwart seltene Erden.
 
ErichH. schrieb:
Wenn dem so wäre, wäre das aber schlecht. Das nennt man Overfit...
Schon richtig - bei traditionellen Modellen. Bei LLMs ist das aber nicht mehr so klar zu beurteilen. Deswegen der Fokus auf Benchmarks, und overfitting darauf gehört bei den großen LLMs ja schon zum Programm.
 
Zuletzt bearbeitet:
War mir nicht bewusst, dass das so sein soll :-). Wobei... wenn LLMs einen gesamten Sprachraum auswendig lernen würden, reicht es ja für die gewünschten Ergebnisse, aber kA ob alle möglichen sinnvollen Kombinationen in die zig Billionen Parameter reinpassen :-D.
 
Zurück
Oben