News Intel Atom E600C: Erster „konfigurierbarer Prozessor“

Wehrwolf schrieb:
Wie programmiert man denn dieses FPGA? Wenn das direkt im Mainboard möglich ist wären das doch völlig neue Möglichkeiten für Viren.

Ich glaub die stückzahlen werden nicht so hoch sein, das es Viren da ein "grosses" problem werden :evillol:
 
blitzkid138 schrieb:
Die "T" Modelle sind wohl vorrangig für die Militärbereich gedacht (dort wird an elektrische Bauteile generell der Anspruch gestellt das die so große Temperaturdifferenzen verkraften)

Sprich die Zielerfassung (oder was man damit auch immer macht) muss in der Wüstenhitze tadellos Funktionieren aber auch wenn man Russland einnehmen will :freak:
mit den T wird das dann quasi garantiert ;)
Und wenn die Technik streikt, man also ein zweites "Stalingrad" erlebt, dann muss Intel in die Bresche springen und mit an die Front. :evillol:
Grantieren kann man viel aber eben nicht alles.

LG
Martin
 
@Tekpoint
Der GMA600 ist genauso ein SGX535 von Imagination Technologies wie der GMA500. Nur jetzt mit 400 MHz getaktet, anstatt nur mit 200 MHz.

Den Atom Z600 sollte man mal in Netbooks oder Tablets verbauen. Sind deutlich sparsamer, benötigen weniger Platz (komletter SoC) und die IGP ist besser als der GMA3150.
Aber wahrscheinlich ist der Z600 ein paar mal so teuer wie Pineview.
 
@Wehrwolf

Das ist ein bisschen wie einen Microcontroller zu programmieren.
Für Viren ist das aber nichts, weil man den Code erst komipilieren und dann reinschleusen muss.
Viren suchen sich aber lieber irgendwo im Betriebssystem Schwachstellen. ;)
Finde ich gut, das Intel da nen Atom und nen FPGA vereint, so kann man Softwaretechnisch dann einen eigenen Signalprozessor oder was man halt will noch einprogrammieren, wenn man den Bedarf hat, ohne erst neue Teile bestellen zu müssen.
 
DAS finde ich mal eine Schritt in die richtige Richtung!
Warum man nicht schon früher darauf gekommen ist eine CPU mit einem FPGA zu kombinieren liegt mir fern.
Als Erklärung: in einem FPGA kann man einen oder mehrer Prozessoren "simulieren" oder andere komplizierte Aufgaben "gießen".
Es sind hochflexible Logikbausteine, die beim Start im allg. aus einem anderen Speicher konfigueriert werden. Somit natürlich sehr schnell und einfach "umkonfiguriert" werden können.

So könnte man z.B. auch spezielle Funktionen mal eben temporär "in Hardware gießen"
die z.B. bei einer "normalen" CPU deutlich mehr Rechenleistung erfordern würden.

So könnte man eine normale CPU mit einer Art "konfigurierbarer CPU" (oder auch was anderes) kombinieren.

Ich persönlich sehe da evtl. auch im privat PC Bereich mal einen Markt.

Ich persönlich habe zwar neben Microcontroller zu Programmieren (MCS51 Reihe) nur geschafft
ein GAL zu programmieren (zeitmangel).
Aber nach einem kleinen GAL kommt das CPLD (complex programmable logic device; programmierbare AND Verknüpfung) und die ganz GROßEN Dinger sind dann die FPGA (Field programmable Gate Array)
mit programmier AND und OR Verknpüfung (+ noch paar mehr Sachen).
Logischer Weise alles in VHDL/Verilog.

Als kurze Erklärung: VHDL ist eine Art Sprache um den logischen Aufbau (bzw. deren Funktionen) eines IC (CPU oder was auch immer) abstrakt zu beschreiben.
So kann man sie simulieren, abspeichern, weiterschicken, kopieren etc.

VHDL = Very High Speed Integrated Circuit Hardware Description Language

P.S. @Jubeltrubel: ein paar CPLDs von Xilinx hab ich hier auch noch rumliegen (TQFP 44 Gehäuse)
 
Zuletzt bearbeitet:
Das ja mal cool. Habe selber schon FPGAs programmiert(von Xilininx in VHDL) die Dinger haben extrem viel Power. Das lustige ist, dass sie alles parallel abarbeiten und nicht sequentiell. Nur zum steuern von LIcht/Heitzung etc ist ein wenig "zu wenig" für ein fpga. FPGAs nimmt man dort wo man viel Rechenleistung braucht z.B wenn man VGA auf Scart bringen will, dort muss man ja 24 mal in der Sekunde alle 3 Farben plus Alpha Kanäle und Störinfos rausrechnen. Dafür braucht man FPGAs eine x86 CPU oder ein Mikrocontroller wäre zu langsam, bzw zu uneffizient.
Ich kann mir eher soetwas vorstellen wie eine Maschiene mit Terminal und UI (vom Atom verwaltet) und massig an Daten (z.B grad ein Projekt Daten eines LWL als Sensor für Brände in Echtzeit auswerten) dann hätte man alles in einem Package.

MFG Jubeltrubel
 
SavageSkull schrieb:
Man könnte eine kleine SPS für Kleinstanlagen direkt mit einer Visualisierung verbinden. In dieser Hinsicht könnte das wirklich ein ordentlicher Schritt sein um Geld zu sparen.
Wobei ich aber fürchte das der ATOM mit seiner IGP zu schwach für die Visu sein wird.

Eine Visu System ala WinCC ist eine reine 2D Anwendung und da reicht so ziemlich alles aus.

Ist aber ein interessanter Ansatz nur bräuchte die SPS dann noch RAM und Festplatten und von daher nicht realisierbar.
 
Klingerdennis schrieb:
ist schon klar das es für unternehmen gedacht ist mit speziellen einsatzgebieten aber 600mhz sind weniger als die CPU von einem Smartphone da binn ich mal gespannt wo es eingesetzt werden soll

der besondere Einsatzzweck dieser CPU ist der FPGA.
Im Gegensatz zu normalen CPUs werden FPGAs auf einer deutlich niedrigeren Ebene programmiert als normale Programme für die CPU.
Während Programme minimal in Assembler gebaut werden, werden FPGAs mit Gatterlogik entwickelt bzw. einer Hardware Description Language (Verilog HDL oder VHDL). Der Vorteil dieser Gatterlogik ist, dass Algorithmen massiv parallel laufen können, während bei einem Programm nur x Threads parallel auf den CPU-Cores laufen können, kann jedes Gatter eines FPGAs parallel arbeiten, dadurch lässt sich eine ungeheure Parallelisierung erreichen, die weit jenseits der Rechenleistung einer normalen CPU liegen kann.
Programme eines FPGAs sind leistungstechnisch ungefähr damit vergleichbar wie Funktionen direkt in der CPU integriert sind, man Vergleiche einen Prozessor der nativ AES kann und einen der das mit Software macht.

Es geht hier also dabei nicht um den Atom-Prozessor sondern um den FPGA, der ganz andere Eigenschaften hat als eine CPU.

Außerdem hinkt der Vergleich mit einer CPU da die CPU eine Art "general purpose"-Architektur ist, sie muss also alles können und benötigt daher natürlich auch viel mehr Rechenleistung um alles effizient zu können, zudem hat ein FPGA kein Betriebssystem, was bedeutet, dass ein FPGA effektiv so gut wie gar keinen Overhead hat.
 
Zuletzt bearbeitet:
Irgendwie klingt das arg nach etwas, was den Transmeta im Kern ausgemacht hat... Softwarekonfigurierbarkeit der Hardware. *grübel*

Liege ich da soooo falsch? Und was hat ein röchelnder x86er-Kern in einer Industrie-Umgebung verloren? - Ich verstehe die Begeisterungsstürme nicht so wirklich. :(

Regardsm Bigfoot29
 
Das ganze nun als Mainstream und es heißt nicht mehr I x6 sodern better performance with I-Atom-C x26 Gaming Pc :)

Japps für gewisse anwendungen praktisch, aber im großem und ganzem nur bedingt für den privatmenschen brauchbar.
 
Muss Computerbase nur über Hardware für den "Privatmenschen" berichten? Also nur über neue schnellere Grafikkarten und Prozessoren?
Was ist mit Personen aus der Industrie, die soetwas benötigen könnten und es dann hier lesen?
 
Für mich hört sich das eher nach einer SPS generation 2 an.

Hoffentlich entwickelt sich das noch weiter,
wenn man das noch mit Industrieverträglichen Reaktionszeiten und echtzeitprogrammierung hinbekommt,
gibt das vielleicht endlich mal Konkurrenz für die Simens SPS'.

Direkt mit einer Visualisierungsplattform gekoppelt,
das sollte die Überwachung deutlich vereinfachen.
 
WOW! Hut ab, wie schon mastermc51 gesagt hat, ist das auf jeden Fall ein Schritt in die richtige Richtung.

Dieses Prinzip MUSS unbedingt in den Privatmarkt, wie zum Beispiel in Geräten im Haushalt (Fernbedienungen oder ggf. Handys).

Durch FPGA kann man alles Simulieren, was man gerade braucht! Praktischer weise könnten nicht benutzte Teile davon wieder als Speicher freigegeben werden.

Meiner Meinung nach ist die Integration flexibler Bausteine die Zukunft.
Ich kann mir kombiniert mit den Erfahrungen, die man bereits mit Schwarmrobotern gesammelt hat und gerade sammelt eine sehr interessante Zukunft vorstellen. ;-)

Man stelle sich vor, dass in Zukunft durch Miniaturisierung nach und nach immer feiner auflösende und vor allem in allen bereichen flexiblere Systeme geschaffen werden können. Dann auch vollständig Softwareseitig, schließlich kann man sich einen RISC Prozessor "bauen" wenn man einen braucht, oder es werden ein paar Shaderprozessoren (mehr?) gebraucht? Aber gegebenenfalls auch eine Tastatur oder Touchpad. Was nicht benötigt wird, kann als Hauptspeicher verwendet werden. Oder auch als RAM.
(Wodurch vollgemüllte Systeme dann wirklich langsam werden ;) )

Irgendwie finde ich, dass hier der Intelslogan "one leap ahead" sehr gut passt.
Passt auch zur Verzögerung von Ankündigung über Entwicklung zum Veröffentlichen

*schrieb ein amd fanboy, und was nun?*
 
CheGuerillia schrieb:
Für mich hört sich das eher nach einer SPS generation 2 an.

Hoffentlich entwickelt sich das noch weiter,
wenn man das noch mit Industrieverträglichen Reaktionszeiten und echtzeitprogrammierung hinbekommt,
gibt das vielleicht endlich mal Konkurrenz für die Simens SPS'.

Direkt mit einer Visualisierungsplattform gekoppelt,
das sollte die Überwachung deutlich vereinfachen.

Du weißt schon das eine SPS, sei es S5 oder S7 eine vielfach höhere Zykluszeit hat als ein FPGA(sofern man hier überhaupt von Zyklen sprechen kann, da stark parallelisiert wird). Eine SPS wird immer einfache, dumme Steueraufgaben übernehmen die kaum Rechenaufwand erfordern. Ein FPGA wird eigentlich nicht dort eingesetzt wo es nur ums steuern geht, sondern wo z.B. auch geregelt wird und wo es Massen an Daten gibt die verarbeitet werden müssen z.B. wenn Daten eines LWL ausgelesen werden (wie sie im EUrotunnel liegen als Temperaturwächter) das kann keine SPS.

MFG Jubeltrubel
 
Ich seh schon nen neuen DES-Cracking Rekord kommen^^

RIVYERA von SciEngines mit 128 Spartan-3 5000 FPGAs schafft schon 265 Milliarden DES Schlüssel pro Sekunde. Dieser hat zwar 74800 logische Elemente, und somit 14800 mehr, dafür aber nur 104 Multiplikatoren (Spielt bei DES keine Rolle). Außerdem dürfte das Intelmodul mit Altera-FPGA günstiger sein. (größere charge)
 
Jubeltrubel schrieb:
Eine SPS wird immer einfache, dumme Steueraufgaben übernehmen die kaum Rechenaufwand erfordern. Ein FPGA wird eigentlich nicht dort eingesetzt wo es nur ums steuern geht, sondern wo z.B. auch geregelt wird und wo es Massen an Daten gibt die verarbeitet werden müssen z.B. wenn Daten eines LWL ausgelesen werden (wie sie im EUrotunnel liegen als Temperaturwächter) das kann keine SPS.

MFG Jubeltrubel
Heutzutage könnte ich mir eine Steuerung, die nicht wenigstens einen PID Regler Code integriert/Baustein zur Verfügung stellt kaum noch vorstellen.
Reines Steuern gibts fast nirgends mehr. Und autarke Regler sind zu teuer.
 
Oh, die news waren mir ja glatt entgangen.
Ich bin mal gespannt was für ein FPGA denn nun wirklich drin steckt.
Was wirklich dolles kann es bei dem Preis ja eigentlich nicht sein, und 'logische Elemente/ Multiplikatoren' kann alles Mögliche bedeuten.
FPGAs mit Prozessorblöcken gibt es ja schon fast ewig, aber in einer 'etwas' anderen Preisklasse.
Von daher bin ich mal sehr gespannt. Ganz besonders auf die kommenden dev-boards.

Dieser hat zwar 74800 logische Elemente

Naja, das lässt sich ohne nähere Angaben nicht vergleichen, und herstellerübergreifend sowieso nicht.

Ich seh schon nen neuen DES-Cracking Rekord kommen^^


Mal schauen was wirklich drin ist. Preislich liegen die xc3s5000 und die Intel/Altera Combo in der selben Region. Mit Pech bekommt man dann wenig FPGA und viel x86 core, mit dem man nicht viel anfangen kann. Da sind dann reine FPGAs u.U. die bessere Wahl
 
Zurück
Oben