Bereits in der
NVIDIA Ira-Demo von 2013 konnte man beeindruckend realistische Gesichter sehen – inklusive feinster Details wie Hautporen, Unreinheiten und Bartstoppeln. Auch die Beleuchtung und die Mimik erreichten damals schon ein extrem hohes Niveau.
Es ist daher erstaunlich: Wenn die Technologie schon vor über zehn Jahren so weit war, warum wirken heutige
KI-Bilder und -Videos oft so verschwommen? Viele KI-Anwendungen liefern Ergebnisse, die ‚blurry‘ und künstlich glattgebügelt aussehen, anstatt die Detailtiefe von damals zu erreichen – etwa Pickel, Falten, Leberflecken oder gerötete Hautstellen. Auch Spiele wie
Crysis 3 zeigten bereits damals, wie extrem detailliert Gesichter sein können.
Ich vermute, dass viele KIs lediglich mit Material in niedrigeren Auflösungen (wie 720p oder 1080p) trainiert wurden. Ohne Training mit echtem
4K- oder UHD-Material fehlt der KI schlicht die Information, wie menschliche Hautstrukturen aus nächster Nähe aussehen.
Zudem besteht echte Haut aus mehreren Schichten, die eine unterschiedliche Lichtdurchlässigkeit (Transparenz) besitzen. Jede dieser Schichten weist individuelle Unregelmäßigkeiten auf, wodurch Farbe und Transparenzstärke variieren. Idealerweise müsste eine KI diese physikalischen Eigenschaften simulieren. Das Gleiche gilt für das Auge: Um ein realistisches Bild zu erzeugen, müssen die Tränenschicht, die Hornhaut, die Linse, die Pupille und der Glaskörper mit ihren jeweiligen Brechungseigenschaften und Trübungsgraden korrekt dargestellt werden.
Außerdem versteht die KI noch keine Physik richtig.
Hier an der Stelle des Videos ist die Ira Demo zu sehen.