News „Panel Self Refresh“ für längere Akkulaufzeiten

Hey prima! Wenn mal wieder der Rechner verreckt, kann ich immer noch nen Screenshot liefern: Einfach den Monitor abstöpseln und einschicken :D
 
Nasenbär schrieb:
@Futscher:
Sollen die Chipentwickler und Programmierer nochmal studieren um dann Akkus zu entwickeln?
Das sind doch zwei völlig verschiedene Bereiche wo vollkommen utnerschiedliche Entwicklerteams beteiligt sind. Es gibt unzählige Chemiker die an anderen Akkutechnologien forschen. Die meisten Dinge sind aber noch nicht Reif für den Einsatz in der Massenfertigung. Wenn die Sache so einfach wäre gäbe es schon Lösungen auf dem Markt.
Ist doch gut wenn in allen Richtungen weiterentwickelt wird. Bessere Akkus gepaart mit effizienter Hardware ist doch optimal.
UNglaublich wie engstirnig manche sind.

da verblasst meine engstirnigkeit aber sehr bei deiner arroganz und naivität. Wieso studieren. weiter entwickelt, denn akkus gibt es schon, weist du. die haben so einiges in der schublade nur wird falsch investiert wie bei vielen dingen. Also mal lieber weitsichtig denken.

birday schrieb:
und wieso sollte das sinnlos sein? 0,5W sind locker 5% einsparung, das ist ENORM.
und was sollen LG mit akkuentwicklung zu tun haben? genau, garnichts.
die bauen unter anderem bildschirme, also forschen sie auch daran.
bitte vor dem posten nachdenken.

erst kommentar verstehen und wenn man dazu in der lage ist dann bitte gegenargumentieren. ok.
habe das sinnlos nicht auf den artikel bezogen.... manmanman
 
wenn du um jeden preis deinen senf abgeben willst, solltest du das bei bild.de in den kommentaren machen..........
Mal ehrlich die forschen an so viel sinnvollen und losen sachen.

hier hast du es geschrieben. "die" forschen dort, wo sie experten sind. und nein, lg ist immer noch kein akkuhersteller. sie forschen daher in den bereichen, der ihre produkte verbessert.
 
ey manche Leute können nur meckern... seit doch froh das sich was tut, mit vielen kleinen Verbesserungen erreicht man auch was und 0.5w sind bei nem Laptop gar nicht sooo wenig denk mal beim surfen und lesen von längeren texten dürfte das durchaus was bringen

@Futscher: ja ne is klar du weisst natürlich was die Frimen alles so in der Schublade haben?
Das Akku Technologien überhaupt nicht in den Bereich von LG oder Intel fallen ist dir aber auch klar oder? Dabei geht es um chemische Redoxvorgänge, dementsprechend beschäftigen sich Anorganiker mit sowas aber sicher keine IT Leute oder Mikrosystemtechniker und glaube mir falls es da schon einen markttauglichen Prototypen gäbe würden schon viele Firmen gewaltige mengen Geld investieren, nicht zuletzt wegen den Elektroautos.
 
Zuletzt bearbeitet:
Eine klasse Idee. Bei Tablets wäre das sicherlich auch keine verkehrte Anwendung, zumal die sicherlich noch mehr statische Bilder zeigen als netbooks (Bauchgefühl zumindest)

chriz0101 schrieb:
Ne Nette idee, aber ob sich 500mW für so eine Entwicklung jetzt gelohnt haben?

Steht doch im Artikel, 45-60 Minuten längere Laufzeit möglich. Das ist etwas was lohnt.

Futscher schrieb:
Mal ehrlich die forschen an so viel sinnvollen und losen sachen. ist es denn nicht möglich mal die akku entwicklung vorran zu treiben?
Sind sie schon an irgendwelche grenzen gestoßen? wohl kaum...

Zum einen, wie bereits erklärt wurde, forschen die einen an jenem, die anderen an etwas anderem. Es sind dazu sogar völlig andere Fachbereiche involviert.
Aber, wichtiger als ein länger haltender Akku ist ein geringerer Verbrauch, weil dies Resourcen schont. Abgesehen davon, daß ein besserer Akku vermutlich komplizierter sein wird und mehr rare Substanzen benötigten dürfte wohingegen so ein Chip hier lediglich eine Technikänderung keine Designänderung beinhaltet, muß man auch den Strom beachten. Sorge ich nur für größere Akkus, steigt der Stromverbrauch in der Summe (Gesellschaft). Aber die AKW-alternative Energie Debatte zeigt sowie der steigende Import von Atomstrom ausz.B. Tschechei (+670%) zeigt wie sinnvoll es ist besser Strom zu sparen als nur den Speicher zu erhöhen. Man muß bedenken, ein Akku, der lange hält, muß auch gefüllt werden. Die Füllmasse muß produziert werden. Wenn weniger Füllmasse benötigt wird spare ich an zwei Ecken, Akkus, sofern sie reichen, können ressourcenschonender hergestellt werden und die Stromproduktion muß weniger liefern, dadurch leichter AKW Abschaltung, weniger Solarpanels (auch nicht gerade sehr umweltfreundlich) etc. Deswegen ist jedes Stromsparen sinniger als die Kapazitäten zu erhöhen. AUßER: Wenn sie genutzt werden um alternative Energie zu speichern wenn mehr anfällt als benötigt wird.
 
heutige Netbooks / Notebooks saugen im Idle mit aktivem TFT schon nur ca 5-7W aus der Dose. Wenn man da 500mW einsparen kann resultiert das in der tat in bis 60Min längerer Laufzeit.

Das ist doch schön, wie man darüber meckern kann ist mir ein Rätzel. Selbst 5 Minuten Gewinn wären gut.

Das Problem das ich dabei sehe, dass wohl kaum jemand am Notebook Bildschirm sitzt und auf ein komplett ruhiges Bild starrt. Die 60 Minuten / 500mW könnten sich auf 10 h 1 Bild beziehen, unter realen Bedingungen wohl ein Bruchteil davon.
 
finde ich gut! Die Idee mit dem Stromsparenden Bildschirm verfolgt Intel ja schon länger... wenn sie es jetzt noch gebacken bekommen nur neue Inhalte zu aktualisieren, dann bringts wirklich was! Denn so klingt es, also ob bereits das bewegen der Maus den BS neu überträgt...

mfg
 
Krautmaster schrieb:
[..]Das Problem das ich dabei sehe, dass wohl kaum jemand am Notebook Bildschirm sitzt und auf ein komplett ruhiges Bild starrt. Die 60 Minuten / 500mW könnten sich auf 10 h 1 Bild beziehen, unter realen Bedingungen wohl ein Bruchteil davon.
Nunja, ich habe beim Lesen der Beiträge mal versucht darauf zu achten.
Wenn man nicht Zeile für Zeile weiterscrollt, sondern die BildAuf, BildAb Tasten verwendet, kommen pro "Seite" doch einige Sekunden zusammen, in denen das Bild nicht erneuert werden muss.

Ganz praxisfern erscheint mir das jedenfalls nicht.

Edit:
Was mir gerade, da die Sonne anfängt in mein Zimmer zu scheinen, auffällt:
Vermutlich würden vernünftig entspiegelte Displays (anstatt diesem HighGloss/Glare Schrott) auch dazu beitragen, Strom zu sparen, da man die Bildschirmhelligkeit um einiges herunterfahren könnte.
Schont nicht nur die Umwelt, sondern auch die Augen ;)
 
Zuletzt bearbeitet:
Und wie sieht es mit den Latenzen aus?
Welchen Wirkung hat das auf die vertikale Synchronität im Normalbetrieb?
 
Wieder etwas was ein "ultrabook zu einem ultrabook macht"
:D

Ne im ernst - technik hin oder her 500mw zu sparen klingt erstmal gut aber die akkulaufzeit ist von zuvielen Faktoren abhängig als wenn man das in nem blindtest in der praxis bemerken würde.
Les ich schnell benutze oft die maus = häufiger refresh
nutze ich den monitor zum lesen von lagen texten = etwas sparen
nutze ich den monitor gerade garnicht = monitor ausschalten spart mehr :p

Der Sinn der Ultrabooks hat sich mir noch nicht ganz erschlossen.
Ordentliches Arbeiten ist kaum möglich mit den mini displays, will ich mir nur was anschauen kann ich mir nen tablet kaufen...
 
@blizzard3008: Der Sinn der Tablets hat sich mir noch nicht ganz erschlossen.
Ordentliches Arbeiten ist kaum möglich mit den mini Displays, will ich mir nur was anschauen kann ich mir nen Ultrabook kaufen...

You See? Geschmäcker sind verschieden.

Also wenn die bei einem Verbrauch von ca. 10Watt jedes 2te Jahr 0,5Watt wegrationalisieren, dann kann ich getrost auf Akkuforschung verzichten. Lieber ein Gerät das 0,1 Watt braucht und mit ner alten Akkutechnologie 5 Tage hält, als ein Gerät das 10 Watt braucht und mit neuer Akkutechnologie 5 Tage hält. Läuft aufs selbe Ergebnis, aber die erste Variante ist mit Sicherheit um längen besser.
 
Ne Nette idee, aber ob sich 500mW für so eine Entwicklung jetzt gelohnt haben?

Nunja sooo Aufwendig kann die Entwicklung nun auch net gewesen sein. Das Display bekommt halt nen Speicher und dann musste noch an einer Stelle dafür sorgen dass das Bild eben nur übertragen wird wenn sich waas geändert hat.

In der Tat ne nette und in meinen Augen sehr sinnvolle Technologie aber auch keine Revolution. Also mach dir mal keine Sorgen, solange kann die Entwicklung dafür nicht gedauert haben
 
Die Idee ist nicht neu, sondern schon lange im Einsatz, etwa im 100$-Laptop. Das LG sich jetzt mit Lorbeeren schmücken will, die ihnen nicht zustehen, finde ich wesentlich trauriger...

Dabei sind der Hauptprozessor und sonstige Geräte abgeschaltet, lediglich der Bildschirm bleibt aktiviert. In einem zusätzlichen Chip (DCON-Chip) werden Daten für die Anzeige auf dem Bildschirm zwischengespeichert. Ist der Zwischenspeicher des DCON-Chips erschöpft, wird der Hauptprozessor wieder aktiviert und aus dem RAM bzw. vom Flashspeicher neue Daten in den DCON-Speicher übertragen. Danach wird das System wieder in den Ruhezustand versetzt. Somit ist bei normaler Benutzung des XO-Laptops das Computersystem für die meiste Zeit und damit zum überwiegenden Teil inaktiv, verbraucht also insgesamt wenig Energie.

Quelle: OLPC Xo-1 bei Wikipedia...
 
Hmm ich frage mich wo das relevant wäre.

Außer rumidlen und Texte außerhalb des Internets lesen fällt mir nichts ein.

Überall verändert sich das Anzeigebild ständig.

Im Netz beim Lesen auch, es sei denn man hat einen guten AdBlocker. Ohen den machts 0 Sinn weil all die Werbung ja heutzutage wie wild rumwackelt um den Nutzer zu nerven.

Film gucken, Spielen etc. fällt ers Recht flach.
Und im Idle sollte das Display eh zügig ausgehen bzw. der ganze Rechner in nen Ruhezustand gehen.

Von daher wird sich in der Praxis der Nutzen dieser Technologie leider stark in Grenzen halten.
 
Klingt ja lustig, aber wenn das alles von LG "erfunden" wurde, warum wird damit von Intel auf der IDF rumgeprotzt?

Jedenfalls wieder eine Technik die den Input/Output-Lag um mindestens 1 Bild vergrössert:freak: Nix für Gamer!
 
Die Funktion wird man bestimmt auch deaktivieren können, genauso wie man heute auch die Automatische Helligkeitsregelung, an / aus schalten kann oder andere Zusatzfunktionen ;)
 
Grantig schrieb:
... Ansonsten kann man auch einfach einstellen, dass der Bildschirm nach 1 Minute Idle automatisch ausgeht. Das spart dann wahrscheinlich um einiges mehr, da der Hauptverbrauch beim Display ja durch das Backlight entsteht.
...
Der Stromverbrauch sinkt durch die geringere Leistungsaufnahme der GPU/CPU, am Panel wird sich kaum was ändern.


Moep89 schrieb:
... Überall verändert sich das Anzeigebild ständig.
...
Was heißt ständig, dir ist schon klar das auf den meisten LCD 60Fps gezeigt werden? Bevor du ein wackeln registriert hast, da wurden vorher schon 20-30 identische Bilder gezeigt ohne das du das mitbekommen hast.

Eyefinity schrieb:
...Jedenfalls wieder eine Technik die den Input/Output-Lag um mindestens 1 Bild vergrössert:freak: Nix für Gamer!
Die Geräte um die es hier geht sind ohnehin nix für Gamer.
 
Ich habe gestern eine Interessante Idee gehabt,
nämlich diese Ultrabooks mittels einer Nickel Legierung (wurde berichtet, der Cyriepunkt ist relativ weit herunter gesetzt und dadurch ist über den Wechsel des Magnetismuses möglich Strom zu generiern) "kühlen" bzw. die Energie wieder in den Akku zu verbannen.

Das war jetzt ein Ausschweifen,
aber ich denke insgesammt sind mit den Technologien die gerade im kleinen Wirken wie z.B. PSR bald immer bessere Ergebnisse zu erreichen! Wenn ich überlege das ein Idle Laptop vll. seine 20W benötigt sind 500mW beim Panel, 700mW bei der SSD, vll. eine kleine Energierückgewinnung, die abgeschaltene Grafikkarte dort, die IvyBridge Voltage Veränderung bzw. Prozessoren welche auf sehr niedriger Spannung laufen, vll. dann noch OLED (fällt da der Refresh nicht weg da sich eh nur bei Änderung mehr Energie verbraucht wird?) etc. etc.

All das summiert sich hoffentlich dazu dass ich in 5 Jahren ein Notebook mit Akkulaufzeiten kaufen kann, welche zumindest beim Arbeiten den ganzen Tag oder mehr halten :)


Gruß
 
Zurück
Oben