int a=5;
int erg = a<< 1+1;
Warum kommt bei dieser Bit Operation 20, also in Bitdarstellung (10100) raus?
ich komme immer auf ein anderes Ergebnis nämlich (folgender Rechenweg)
5 ist in Bitdarstellung ja 101
als erstes wird ja das + ausgewertet also wird aus a<<1+1 ja a<<2
also werden ja dann die 101 (in Dezimal 5) um 2 nach linksverschoben
und wenn man die 101 um 2 nach linksverschiebt, dann müsste doch 100 in Bitdarstellung rauskommen und das wäre doch eine 4 in Dezimal
Kann mir jemand weiterhelfen wie man da auf eine 20 kommt?
Über Hilfe wäre ich dankbar
Ach, übrigens ich spreche hier von Java
int erg = a<< 1+1;
Warum kommt bei dieser Bit Operation 20, also in Bitdarstellung (10100) raus?
ich komme immer auf ein anderes Ergebnis nämlich (folgender Rechenweg)
5 ist in Bitdarstellung ja 101
als erstes wird ja das + ausgewertet also wird aus a<<1+1 ja a<<2
also werden ja dann die 101 (in Dezimal 5) um 2 nach linksverschoben
und wenn man die 101 um 2 nach linksverschiebt, dann müsste doch 100 in Bitdarstellung rauskommen und das wäre doch eine 4 in Dezimal
Kann mir jemand weiterhelfen wie man da auf eine 20 kommt?
Über Hilfe wäre ich dankbar
Ach, übrigens ich spreche hier von Java