Schade schreibst du? LOL
Du kannst froh sein, nicht auf einen der ältesten Abzocktricks im Internet komplett reingefallen zu sein...
Und zu deiner Performance zu Watt Geschichte:
Du vergleichst total random Äpfel mit Birnen. Wenn du nicht alle Chips bei einer Geschwindigkeit X (Das ist FPS X in Spiel N) vergleichst, dass dann in verschiedenen Engines machst und dann schaust, welche Grafikkarte am meisten/wenigsten verbraucht, hast du keine Ahnung welcher Chip wirklich am effizientesten ist.. Alternativ kannst du, und das wäre praktikabler, für alle Grafikkarten eine Watt Grenze setzen und dann schauen, welche Grafikkarte bei dieser Wattgrenze am meisten FPS liefert. Dies wäre nach deinem Anforderungsprofil wahrscheinlich am sinnvollsten. (So ganz verstehen tu ich das persönlich zwar auch nicht, weil du auf der einen Seite sagst, Geld ist sekundär und du kannst dir alles leisten, und dann kommt es dir auf 10-200€ auf 3 Jahre Unterschied im Strom doch wieder an?!)
Aber wo ich eigentlich hinaus will, und was dir hier auch schon geschrieben wurde:
Was eine Grafikkarte verbraucht bestimmst du ganz einfach, indem du das Powertarget auf deine Bedürfnisse einstellst. Ist ja nicht so, dass man das nicht bei jeder modernen Grafikkarte relativ einfach machen könnte...
Die von dir nun fast gekaufte 1080ti ist im Übrigen 26% schlechter als eine 2070 Turbo in Sachen Performance/Effizienz im Auslieferungszustand. Aber wenn einem der Strom so extrem wichtig ist, würde ich die Karte einfach nicht im Auslieferungszustand betreiben...
Zu dem hypothetischen 7nm mimimi sei gesagt, dass von Nvidia vor Mitte 2020 keine bessere Alternative kommen wird.. und auch dann steht für AMD der Sprung auf 7nm EUV an, was auch denen wieder helfen wird... Der Sprung von 12+ auf 7nm war halt gar nicht sooo riesig, aber das wird sich nächstes Jahr ja alles noch zeigen.. Nur der hypothetische 7nm Turing ist bullshit, weil es den so nie geben werden wird...