Fotorealismus – die Zukunft der Videospiel-Visuals

Aiden Pearce

Stellen Sie sich vor, in die Augen eines Videospielcharakters zu schauen und zu wissen, dass sie dich angelogen haben oder dass sie Angst haben oder dass sie dich lieben.

Im Moment, auch mit der erstaunlichen Macht der aktuellen Multi-Core-Prozessoren und Grafik-Chipsätze, die Menschen, denen wir begegnen in visuell schöne Spiele wie Far Cry 4, Assassin’s Creed: Unity und Tomb Raider fehlt etwas in ihren Gesichtern, einige Funken der Menschheit. Das Phänomen hat einen bekannten Namen, das Uncanny Valley, geprägt von Robotik Professor Masahiro Mori. Seine Hypothese, die erstmals 1970 vorgebracht wurde, war, dass die menschlichen Reproduktionen der Echtheit näher kommen, die winzigen Ungenauigkeiten zunehmend beunruhigen. Videospiel-Charaktere sehen so echt aus, aber nicht echt genug, und wir kehren von ihnen zurück.

Videospielwelten sind ähnlich abstrahiert. Die Stadt Los Santos in Grand Theft Auto V; Das geschäftige Paris von Assassin’s Creed: Einheit … all die Details sind da, aber das sind nur virtuelle Filmsets. Die meisten Türen sind verschlossen, und wenn Sie GTA’s mächtigsten Raketenwerfer in jedem Gebäude, die explosive Auswirkungen wird überhaupt keine Schäden. Die rechnerischen Kosten für die Simulation von kollabierenden Mauerwerk ist riesig.

Die Probleme der Realität

Dies sind die Herausforderungen für die Macher von Videospiel-Grafikkarten, die Stücke von komplexen Hardware, die in Ihren Computer oder Konsole schlitzten und die neben der zentralen Verarbeitungseinheit arbeiten, um diese atemberaubenden Visuals zu produzieren. “Spielentwickler interessieren sich zunehmend für hoch simulierte und dynamische Welten, die es Spielern ermöglichen, auf interessante Weise zu schaffen, zu zerstören und mit der Umgebung zu interagieren”, sagt Tony Tamasi, Senior Vice President für Content und Technologie am Grafikhardware-Spezialisten Nvidia. “Durch mehr dynamische Erfahrungen oder simulationsgetriebene Entwürfe werden die Welten lebendiger und involviert, ohne unbedingt sorgfältig – und teuer – modelliert, animiert und skriptiert zu sein.”

Anstatt Umgebungen als verklärte 3D-Filmsets zu konstruieren, bauen die Spielentwickler sie nun als Gruppen von simulierten physischen Objekten auf, die auf Spieleraktionen reagieren. Seit einigen Jahren gibt es Bewegungen in dieser Richtung: Titel wie Red Faction, Far Cry, Crysis und Breach haben alle eine zerstörbare Landschaft gezeigt, aber es wurde sehr kontrolliert und auf bestimmte Bereiche isoliert. Sogar das visuell beeindruckende Levolution-System von Battlefield 4, das authentische Momente der massiven landschaftlichen Zerstörung schafft, arbeitet nur mit bestimmten Gebäuden. Allerdings scheint es bevorstehende Titel wie Microsofts Reboot von Open-World-Action-Abenteuer Crackdown und Multiplayer-Strategie-Shooter Rainbow Six Siege werden beide große Zerstörung, die vollständig verändert die Umgebung für Spieler.

Dies wurde durch Fortschritte in Echtzeit-Physik Berechnungen von beiden Grafikkarten-Hersteller und die Coder hinter erweiterte 3D-Spiele-Motoren wie Cryengine und Unreal Engine 4 erlaubt. Wir sind in eine neue Ära der physikalischen Rendering, wo die Eigenschaften Der einzelnen Textilien und Materialien werden simuliert, um natürliche, reaktive Umgebungen zu erzeugen. “Wir mussten GPU-freundliche, hochparallele physikalische Simulationsalgorithmen entwickeln, die uns in vielen Fällen dazu verpflichtet haben, Algorithmen auf einer fundamentalen Ebene zu überdenken”, sagt Tamasi. “Wir sind an der Stelle, wo diese Dinge wirklich Erfahrungen mitbringen können. Die Batman- und Borderlands-Franchise haben diese Fähigkeit zu Herzen genommen. ”

Schalten Sie die Lichter ein

Ein weiterer wichtiger Teil dieses Schrittes auf naturalistische simulierte Umgebungen ist die Beleuchtung. Seit vielen Jahren wurden Licht- und Schattenquellen in Videospielszenen “gebacken”, was bedeutet, dass sie von Künstlern auf die Landschaft gezogen wurden. Jetzt spielen Spiele realistische physikalische Lichtquellen, die die Wechselwirkung zwischen Lichtstrahlen und Objekten simulieren. Charaktere werfen Schatten, wie sie unter Straßenlaternen laufen; Flammen glänzen aus Metallschwertern. Der heilige Gral ist “globale Beleuchtung”, im Wesentlichen ein System, das genau simuliert, wie Licht reflektiert und zwischen verschiedenen Oberflächen reflektiert und eine Reihe von indirekten Lichtquellen erzeugt. Dies ist in animierten Filmen üblich, aber sie können jede Szene im Voraus machen, mit ganzen Farmen von leistungsfähigen Computern; Spiele müssen jeden Moment in Echtzeit auf einem PC oder einer Konsole rennen.

“Wir haben im Laufe der Jahre erstaunliche Fortschritte in Echtzeit gemacht,” sagt Tamasi. “Schatten sind von einfachen Blöcken gegangen, zu hartnäckigen Schatten, zu weichen, scharfen Schattenkarten, zu einer Form der globalen Beleuchtung, die als Umgebungsverschluss bezeichnet wird. Viele Filme mit umfangreicher Computergrafik arbeiten mit fortgeschrittenen Formen des Renderings namens Pfadverfolgung. Diese simulieren die tatsächliche Lichtausbreitung, schießen Milliarden von Strahlen in die Szene, hüpfen sie herum und körperlich simulieren die Licht-Interaktion mit einer Oberfläche. Diese Techniken können große Ergebnisse erzielen, sind aber unglaublich rechnerisch teuer. Sie können auf GPUs aber getan werden; Nvidia hat Iray, eine körperlich korrekte, fotorealistische Rendering-Lösung und OptiX, eine Raytracing-Engine, die Sie auf ein neues Niveau des interaktiven Realismus hebt. ”

Wir sehen die Früchte dieser Fortschritte im Jahr 2015. Die Witcher 3, Bloodborne und Project Cars verfügen alle über komplexe Echtzeit-Beleuchtung und Schatteneffekte und versprechen, auf Elementen wie dynamisches Wetter, Tag / Nacht-Zyklen und subtil zu innovieren Partikeleffekte “Stellen Sie sich vor, wirklich simulationsbasierte volumetrische Staubwolken, die von einem Lande-Chopper getrampelt wurden, mit Spieler-Charakteren, die sich durch diese Staubwolken bewegen und mit ihnen zusammenarbeiten”, sagt Tamasi. “Oder Charaktere, die Löcher in die Wände eines Schlosses blasen, so dass das Sonnenlicht von außen her strömen, vom Boden herabspringen, zu den Wänden, zu den Vorhängen.”

Die menschliche Frage

Aber es gibt noch eine große Frage, die über die Bewohner dieser Umgebungen schwebt. Während die Gesichter von Joel und Ellie im Letzten von uns und Kevin Spacey in Call of Duty: Advanced Warfare, Momente der echten Menschlichkeit haben, gibt es immer noch eine eindringliche Versetzung. Ein Spalt.

Nvidia sieht es. “Haut ist ein rechnerisch hartes Problem”, sagt Phil Scott, Nvidias führender technischer Evangelist in Europa. “Die Haut wird Licht von der Umgebung annehmen und dann streut das Licht in den ersten Millimetern des Fleisches herum. Dann wird es wiederhergestellt, gefärbt von dem, was es angetroffen hat. Wenn ich meine Hand bis zum Licht halten würde, wirst du ein rotes Glühen um die Ränder sehen: in Spielen, wir sind wirklich in diese wichtigen Feinheiten jetzt. ”

Haare auch, war schon immer ein Problem – Rendering Tausende von Wellen, um etwas zu schaffen, das nicht aussieht wie eine Plastik-geformte Perücke hat viele Teams versucht. AMD, ein weiterer Grafikkartenhersteller und Nvidias Hauptkonkurrent im Raum, hat seine TressFX-Technologie entwickelt, um das Problem zu lösen – es produzierte Lara Crofts überzeugend hüpfendes Ponyschwanz im Tomb Raider-Spiel.

Es scheint wie periphere Sachen, aber es ist nicht. “Wenn Videospiele mehr emotionale Geschichten erzählen sollen, dann ist das wichtig”, sagt Scott. “Bessere Haut macht Zeichen glaubwürdiger; Und die Augen sind das Tor zur Seele. Als Menschen sehen wir uns in den Augen an, wir kommunizieren durch die Augen; So dass, obwohl sie einen kleinen Teil des Bildschirms Platz nehmen, müssen die Entwickler eine Menge von Rendering-Aufwand zu machen, um sie realistisch zu verbringen. ”

Jon Jansen, Nvidias Entwicklertechnologie für Europa, nimmt das Thema auf. “Die Augen sind so komplex, weil sie mit Licht interagieren”, sagt er. “Es gibt viele interne Reflexionen, weil es ein Linsensystem ist. Schauen Sie sich die Art und Weise an, dass die Automobilindustrie versucht, Scheinwerfer in ihre Simulationen zu machen – das ist ein echter Test für Ray-Tracing, weil Sie so viele interne Reflexionen haben. Da ist etwas los mit den Augen.

“Es gibt auch die Frage der sub-Oberfläche Streuung von Licht innerhalb der Hornhaut, weil es nicht eine perfekt undurchsichtige Oberfläche ist. Es gibt all diese subtilen, physikalischen Phänomene, die im Auge vor sich gehen, und wenn du Zeit hast, das richtig zu bekommen, wirst du belohnt – man kann erstaunliche Ergebnisse erzielen. ”

Emotionen als Spieldesign

Natürlich werden zerstörbare Welten mit realistischen physikalischen Eigenschaften und schönen menschlichen Charakteren mit schrecklichen Augen nicht schlechte Spiele, gute oder langweilige Geschichten aufregen, aber sie können es Entwicklern erlauben, subtilere Erzählungen zu erforschen. Rockstars 2011 Krimi-Drama LA Noire, die umfangreiche Verwendung von Gesichts-Motion-Capture, fragte Spieler zu erarbeiten, wenn Verdächtige lagen während des Verhörs durch das Lesen ihrer Ausdrücke und Körpersprache. Die emotionale Treue war nicht ganz da, aber es könnte in ein paar Jahren Zeit sein. Ende letzten Jahres veröffentlichte Supermassive Games eine Demo von seinem kommenden Until Dawn Titel und zeigte seinen beeindruckenden Gebrauch der kontextuellen Gesichtsanimation:

Vielleicht werden wir eines Tages in die körperlich gerenderten Augen der Spielfiguren schauen und verstehen, von der Art, wie das Licht von ihren Hornhäuten glänzt, dass sie verärgert oder verzweifelt sind. Vielleicht wird emotionale Intelligenz eines Tages so wichtig sein, ein Spiel Geschick wie Hand-Auge-Koordination.

Aber werden wir jemals auf der Bühne sein, wo wir Spielumgebungen und Spielcharaktere verpassen, für die reale Sache? Tim Sweeney, Mitbegründer von Epic Games, sagte im vergangenen Jahr, dass wir es in zehn Jahren erwarten können. Ist er recht “Wir sind ein langer Weg vom Fotorealismus in Echtzeit-Rendering”, sagt Tamasi. “Wir kommen gerade in den Kino, wo begrenzte Mengen an menschlichem CGI für die meisten Zuschauer [als fotorealistisch] übergehen. Das sind Filme mit effektiv unendlichen Renderzeiten pro Rahmen, und Künstler sorgfältig scannen, handwerklich und animieren eine einzige Aufführung.

“Real-Time-Grafik ist wahrscheinlich ein Jahrzehnt oder mehr hinter dem Film in Bezug auf das, was visuell vermittelt werden kann, und Film ist auch noch nicht” getan “. Ich würde sagen, wir haben Jahrzehnte mehr Innovation zu kommen. “