Die Frage ist durchaus berechtigt... Ging in den letzten generationen ja auch öfter. Eine Grafikkarte stark übertaktet, und sie kam schon an das nächsthöhere modell ran ;-) Ist keine Fantasie.
Aber hier.. Nope. Der Unterschied in den shader kernen ist zu groß, die normale Mehrleistung beträgt ja 25-35%~ je nach szenario etc.
Angenommen, eine 1080 ti läuft mit 1850 Mhz (was schon relativ moderat ist, nix besonderes), dann müsste eine 1080 etwa auf 2600 Mhz kommen, um die fehlenden Shaderkerne auszugleichen - sofern die Anwendung shaderlimitiert ist, und die Anzahl der Shader eben linear skaliert.
Und ne 1080 bekommst du eher an die 2100 Mhz grenze. Mit nem guten Chip knapp drüber, mit nem schlechteren Chip drunter.
Auch die Speicherbandbreite ist ein teil der mehrleistung, die kriegst du auch nicht ausgeglichen ^^
Die mehrleistung ist in 4k natürlich höher, als in der popelauflösung Full HD. Full HD mittlerweile ist so gering, bzw eine GTX 1080 ti dafür SO dermaßen stark, dass du selbst auf hohen settings oft ins CPU-Limit rennen kannst.
Denn genau so testet Digitalfoundry ihre CPUs ;-) 1080p Ultra, aber kombiniert mit einer übertakteten Titan X.