News Forschung: Intel bringt 49-Qubit-Testchip und blickt auf Loihi

Hilft ja alles nichts. Es muß geforscht werden weil was wir jetzt haben ist am Limit. Ob da 10nm oder gar 7nm mehr Leistung raus holen steht auch noch in den Sternen.
 
Scythe1988 schrieb:
Vielleicht erkennt die Maschine ja auch wie toll ein Mensch ist und verliebt sich unsterblich......weniger Aluhut, mehr RealitÀt bitte :)

Die Maschine wird eher erkennen wie Sinnlos und unterlegen der Mensch ist, und ihn deswegen auslöschen ;-)

Also um Quanten Computern entgegen zu wirken, jedes Passwort auf mindestens 100 Stellen Bestehend aus Groß, klein, Zahlen und Sonderzeichen, Ă€ndern und gut ist ;-) Da dĂŒrften auch die noch ein wenig fĂŒr brauchen.
 
Zuletzt bearbeitet:
Das sind sehr gute Nachrichten von Intel.

Wenn man in etlichen Jahren genĂŒgend Erfahrungen gesammelt hat
wie man Quantenbit so beherreschen kann dass sie verwertbare Ergebnisse liefern
dann dĂŒrfte eine komplett neue Industrie entstehen.

Nicht in Konkurrenz zu der regulÀren Halbleiter-Industrie
sondern eben eine komplett neue Industrie bzw. Industriezweige werden entstehen
bzw. bestehende Industriezweig ziemlich runderneuern.

Bin schon sehr gespannt.

.
 
Ist doch alles Marketinggeblubber. Das hat nichts mit einem richtigen Quantencomputer zu tun
 
Dann weißt du bestimmt auch die Unterschiede zwischen diesem und einem "echten" Quanten Computer, aber stimmt sowas habe ich auch gelesen.
 
Nureinnickname! schrieb:
Also um Quanten Computern entgegen zu wirken, jedes Passwort auf mindestens 100 Stellen Bestehend aus Groß, klein, Zahlen und Sonderzeichen, Ă€ndern und gut ist ;-) Da dĂŒrften auch die noch ein wenig fĂŒr brauchen.

Laut Google lassen sich bestimmte Rechenoperationen um den Faktor 100 Million beschleunigen, im vergleich zu klassischen Rechnern. Sollte sich der Faktor auf genau diese Berechnungen anwenden lassen, dann sollte in einigen Jahren Quanterechner geben, die damit wohl kein Problem haben.

Aber das ganze ist noch viel zu theoretisch. Mal gucken was die Zeit so bringt. Die Gefahr wĂ€ren dann wohl nicht die Passwörter, sondern aktuelle VerschlĂŒsselungstechnologien, welche man mit so einem Rechner wohl recht schnell knacken könnte.
 
Du kannst nur Paßwörter knacken, wenn die Paßworteingabe es zulĂ€ĂŸt. Versuche einmal das Paßwort vom IPhone zu knacken. Wenn man bei 3 mal Paßwort eingeben immer noch das falsche hat, dann dauert es immer lĂ€nger, bis man es wieder versuchen kann. Da hilft auch der schnellste Paßwortgenerator nichts.
Programme wo ich in 1 Minute 1000 Paßwörter testen kann sind einfach falsch programmiert.
 
@oldmanhunting
Man kann viele Passwörter auch offline knacken, z.B. WPA(2), wenn man einen Handshake abgefangen hat.
Die Sicherheit von RSA basiert beispielsweise wesentlich darauf, dass die Faktorisierung von grossen Zahlen verhÀltnismÀssig lange dauert. Wenn das quasi in null Zeit möglich ist, dann ist RSA obsolet.
 
@oldman: so macht man das auch nicht. Wieso sollte man dafĂŒr das GU-Interface des GerĂ€tes benutzen? Man liest die Daten der Speicherchips aus und lĂ€sst darauf dann seine Attacke los. Dann ist man auch nicht von der langsamen Hardware des GerĂ€tes eingeschrĂ€nkt.
 
Artikel-Update: Ein technisches Dokument wurde nun ĂŒber die IEEE freigegeben, das beschreibt, dass der Loihi-Chip auf Basis der 14-nm-Fertigung lediglich 60 mmÂČ groß ist – und damit nicht einmal die GrĂ¶ĂŸe eines klassischen Dual-Core-Prozessors von Intel in gleicher Fertigung aufweist (rund 100 mmÂČ). Die vor zwei Monaten getĂ€tigten ComputerBase-Angaben, dass alle bisherigen Bilder zu dem Chip nicht ansatzweise der RealitĂ€t entsprechen, erweisen sich jetzt als korrekt.
 
Intels Abbildung sollte wohl mehr eine Symbolische sein.... Die Leistung eines riesigen Chips auf kleinsten Raum ^^
 
Ja wie NV mit Holz-Modelen naja passt ja gut zu den Hozlköpfen in den Chefetagen von Intel. Dass Hauptproblem bei Intel man ist halt nicht in allen Bereichen gut nur gibt man dass nicht zu und lĂŒget lieber.
 
Es handelt sich aber um 49 einzelne Qubits und nicht um verschrÀnkte Qubits, oder? Denn nur im verschrÀnkten Zustand machen die Dinger ja erst richtig Sinn...
 
Shoryuken94 schrieb:
Im Bereich des AI Computing und und spĂ€ter noch des Quanten Computing liegt die Zukunft der Industrie. Sehr vernĂŒnftig von Intel in diese Bereiche zu investieren! Das wird ein riesiger Markt mit Unmengen an Potential. Ich bin gespannt, wann AMD mehr auf dem Gebiet macht. Der klassische x86 CPU Markt wird kaum noch enorme Steigerungen bringen, zumal normale Prozessoren zunehmend eine immer kleinere Rolle spielen. Schon heute wird ja alles was etwas komplexer ist auf spezielle Recheneinheiten ausgelagert, da CPUs zwar sehr vielseitig, aber im vergleich auch unglaublich langsam sind.

Wenn AMD nicht nur mittelfristig wieder mitspielen möchte, mĂŒssen sie auch in dem Bereich bald Fuß fassen.

amd wird auf absehbare zeit sicher nicht in diesem bereich investieren. und das zu recht, denn der markt des quantencomputing tangiert den markt des konventionellen computing kaum. das sind grundverschiedene systeme fĂŒr grundverschiedene aufgabengebiete. keine sorge: die frage "but can it play crysis" kann man beim quantencomputer klar verneinen ;)
 
LĂŒbke schrieb:
amd wird auf absehbare zeit sicher nicht in diesem bereich investieren. und das zu recht, denn der markt des quantencomputing tangiert den markt des konventionellen computing kaum. das sind grundverschiedene systeme fĂŒr grundverschiedene aufgabengebiete. keine sorge: die frage "but can it play crysis" kann man beim quantencomputer klar verneinen ;)

Ganz so einfach ist es aber nun auch wieder nicht... gerade die Probleme, die mit Quantencomputern möglicherweise gut gelöst werden können, werden heutzutage durch massive Parallelisierung angegangen und das passiert eben auf GPU Chips, einer der Kernbereiche von AMD.
 
Wenn ich das hier so lese, dann frage ich mich schon, wie der Computer in 20-40 Jahren aussieht und was wir dann auf unserem Schreibtisch stehen haben.

Erscheint mir aber logisch, dass wer in der Zukunft oben mitspielen will, der muß Heute forschen und investieren.
 
Nö, muss man nicht. Das machen die big player wie IBM und natĂŒrlich auch die Unis bzw daraus hervorgehende Startups. Zuerst steht mal die Grundlagenforschung auf dem Programm, dann irgendwann sowas wie ein echtes Produkt. Darauf werden dann Patente angemeldet und diese kann man lizensieren. AMD hat nicht annĂ€hernd die finanziellen Mittel um in diesen Bereich Geld zu versenken, in der Hoffnung in 20-50 Jahren eventuell ein marktreifes Produkt auf den Markt zu bringen. Das wĂ€re auch Schwachsinn.

Und was in zwanzig Jahren auf deinem Schreibtisch steht: Gar nichts, wenn sich andere Techniken durchsetzen wie zB Brillen oder gar Kontaktlinsen mit integriertem Monitor. Ansonsten: ein Monitor mit Technik der 2038er Jahre. Was auch sonst? Oder das arbeiten Àndert sich komplett.
Ich wĂŒrde aber auch in 2 Jahren nicht allzuviel Änderungen erwarten. Wir haben nach 15 Jahren 64bit immer noch 32bit Software tĂ€glich im Einsatz. Die Äre der fliegenden Autos wird wohl noch etwas weiter in der Zukunft liegen.
 
Das Gehirn ist keine Turing-Maschine... kĂŒnstliche neuronale Netze sind keine neuronalen Netze... das Projekt "Starke KI" ist grandios gescheitert... es gibt derzeit viele gute FachbĂŒcher zu diesem Thema... beginnend bei den klassischen MLPs bis zu DeepLearning mit TensorFlow und Co... und ich finde, man sollte nicht stĂ€ndig diese unsinnige Werbesprache nachplappern. Das ist alles kein Hexenwerk....und die AI Chips sind relativ simpel im Vergleich zu normalen CPUs und GPUs.
 
Zuletzt bearbeitet:
Mag sein vielleicht aber die meisten denken immer zu grade und nicht um die Ecke zum Beispiel bei Skynet dass ist auch keine KI im ĂŒbertragenen sinne gewesen. Was ich damit meine ein zusammen Schluss von vielen Netzwerken, könnte theoretisch auch die erste echte selbst lernende und sich entwickelnde KI erzeugen mehr oder weniger durch Zufall wie so vieles entstanden ist. Nur wĂ€re es der Anfang vom Ende fĂŒr uns.
 
ZurĂŒck
Oben