Die Geschichte der Computergrafik

ComputergrafikHier ist eine kurze Zeitlinie von einigen wichtigen Momenten in der Geschichte der Computergrafik.

1951: Jay Forrester und Robert Everett von Massachusetts Institute of Technology (MIT) produzieren Whirlwind, ein Mainframe-Computer, der Rohbilder auf einem Fernsehmonitor oder VDU (visuelle Anzeigeeinheit) anzeigen kann.
1955: Direkt von Whirlwind abgestiegen, verwendet der MIT-SAGE-Computer (Semi-Automatic Ground Equipment) einfache Vektorgrafiken, um Radarbilder anzuzeigen und wird ein wichtiger Bestandteil des US-Raketenabwehrsystems.
1959: General Motors und IBM entwickeln Design Augmented by Computer-1 (DAC-1), ein CAD (Computer-Aided Design) -System zu helfen Ingenieure Design Autos.
1961: John Whitney, Sr. verwendet Computergrafik, um eine fesselnde Titelsequenz für den Alfred Hitchcock Thriller Vertigo zu entwerfen.
1961: MIT Student Steve Russell Programme Spacewar !, das erste grafische Computerspiel, auf einem DEC PDP-1 Minicomputer.
1963: Ivan Sutherland, ein Pionier der Mensch-Computer-Interaktion (macht Computer intuitiv einfach für den Menschen zu bedienen), entwickelt Sketchpad (auch Roboter Zeichner genannt), eines der ersten computergestützten Design-Pakete, in denen Bilder auf die gezeichnet werden können Bildschirm mit einem lightpen (ein elektronischer Stift / Stylus in den Computer verdrahtet). Später entwickelt Sutherland Virtual Reality Equipment und Flugsimulatoren.
1965: Howard Wise hält eine Ausstellung von Computer-gezeichneten Kunst in seiner Pionier-Galerie in Manhattan, New York.
1966: Das Jet Propulsion Laboratory der NASA (JPL) entwickelt ein Bildverarbeitungsprogramm namens VICAR (Video Image Communication and Retrieval), das auf IBM Mainframes läuft, um Bilder des von Raumfahrzeugen erfassten Mondes zu verarbeiten.
1970: Bézier-Kurven werden entwickelt, die bald zu einem unverzichtbaren Werkzeug in Vektorgrafiken werden.
1972: Atari veröffentlicht PONG, eine beliebte Version von Ping-Pong (Tischtennis), die von einem oder zwei Spielern auf einem Computerbildschirm gespielt wird.
1973: Richard Shoup produziert SuperPaint, ein Vorläufer moderner Computergrafikpakete, im Labor von Xerox PARC (Palto Alto Research Center).
1970s: Ivan Sutherlands Schüler Edwin Catmull wird einer der Pioniere der 3D-Computer-Grafik-Animation, die später Schlüsselfunktionen bei Lucasfilm, Pixar und Disney spielen.
1981: Die britische Firma Quantel entwickelt Paintbox, ein revolutionäres computer-grafisches Programm, das es TV-Produzenten und Filmemachern ermöglicht, Videobilder digital zu bearbeiten und zu manipulieren.
1982: Der Film Tron, mit Jeff Bridges, mischt Live-Action und Computer-Grafik-Bilder in einer Geschichte, die einen Mann tief in ein Computersystem nimmt.
1980s: Das Erscheinungsbild des erschwinglichen, einfach zu bedienenden Apple Macintosh-Computers ebnet den Weg für das Desktop-Publishing (Entwerfen von Sachen auf Ihrem eigenen kleinen Bürocomputer) mit gängigen Computergrafikpaketen wie Aldus PageMaker (1985) und QuarkXPress (1987).
1990: Die erste Version von Adobe PhotoShop (eines der weltweit beliebtesten professionellen Grafik-Design-Pakete) ist veröffentlicht. Ein einfaches, erschwingliches Heim-Grafikprogramm namens PaintShop (später PaintShop Pro) wird im selben Jahr gestartet.
1993: Universität von Illinois Student Marc Andreessen entwickelt Mosaik, den ersten Webbrowser, um Text und Bilder nebeneinander zu zeigen und eine riesige Explosion im Interesse des Internets praktisch über Nacht zu veranlassen.
1995: Toy Story, produziert von Pixar Animation Studios (gegründet von Apples Steve Jobs, mit Ed Catmull als Chief Technology Officer) zeigt die beeindruckenden Möglichkeiten der CGI Grafik in der Filmindustrie. Atemberaubende Follow-up-Filme aus dem gleichen Stall gehören A Bug’s Life, Monsters, Inc., Finding Nemo, und die Unglaublichen.
1995: Das GIMP (GNU Image Manipulation Program) wird von Universitätskalifornien Studenten Spencer Kimball und Peter Mattis entwickelt.
1999: Das World Wide Web Consortium (W3C) beginnt mit der Entwicklung von SVG (Scalable Vector Graphics), einer Möglichkeit, textbasierte (XML) Dateien zu verwenden, um qualitativ hochwertige Bilder im Web zu erstellen. SVG-Bilder können Elemente sowohl herkömmlicher Vektor- als auch Rastergrafiken enthalten.
2007: Apple startet sein iPhone und iPod Touch Produkte mit Touchscreen grafische Benutzeroberflächen.

Die besten Online Casino Grafiken

Realistische Casino-Erlebnisse sind seit langem ein Traum von Online-Casino-Spielern und jetzt mit technologischen Durchbrüchen in Grafik und Ultra-High-Speed-Internet-Verbindungen, die Traum wird immer mehr Realität.

Die Mehrheit der Online Casinos nutzt Standard-Software von Microgaming und RTG, das bedeutet, dass unter den verschiedenen Boni, die Qualität der Kundenbetreuung und die Treueprogramme oftmals praktisch identisch sind.

Einige Casinos wie Online Casino Österreich haben beschlossen, die Form zu brechen und schreiben ihre eigene proprietäre Software und die Ergebnisse sind atemberaubend. 3D-Umgebungen sind eine große Auslosung im Moment und die Spieler lieben das virtuelle Casino-Erlebnis der realistischen 3D-Software. Mit VR Headsets jetzt eine Realität werden Sie zunehmend finden, dass volle Immersion Casino Glücksspiel ist schnell zu einer Realität.

High-Definition (HD) Grafiken werden auch an die Grenze gedrückt und es gibt sogar volle 3D-Effekt-Casino-Spiele wie 3D-Slots zur Verfügung, wo das Casino kommt aus dem Bildschirm in Richtung Sie!

Beste Casino Grafiksoftware

Unabhängige Software-Anbieter sind, wo Online-Casinos die meisten ihrer Spiele bekommen und einige sind besser als andere. Die herausragenden Anbieter in Bezug auf grafische Exzellenz sind Betsoft, mit Dutzenden von extrem hochwertigen 3D-Slots. Dieser Softwareanbieter ist Kopf und Schultern über dem Rest des Feldes, wenn es um gute Grafiken geht. Schauen Sie sich diese beiden Screenshots von zwei ihrer beliebtesten Spiele an:

Slotfather

Gold Piggin

Dr Magoo

Betsoft verlassen die anderen Casino-Spielmacher, die mit ihren innovativen Spielautomaten und Film-Kaliber-Animationen aufholen.

Um die ganze Bibliothek von Betsoft Spielen für echte oder sogar nur um sie kostenlos auszuprobieren, ist Drake Casino der Ort zu spielen, da sie eines der wenigen Casinos sind, um sowohl US- als auch UK-Spielern zu erlauben, Betsoft-Spiele zu spielen.

Während Betsoft das Feld in Bezug auf grafische Exzellenz, andere bemerkenswerte Casino-Entwickler, die auf große Grafiken konzentrieren, sind Yggdrasil, Net Ent und zunehmend, Play N Go. So stellen Sie sicher, dass Ihre Online-Casino der Wahl hat eine gute Auswahl von diesen Anbietern, wenn Grafiken sind wichtig für Sie.

Die Top 3 Casinos mit den besten Grafiken

Wir haben alle diese nächsten Generation Online-Casinos für grafische Exzellenz sowie hervorragende Soundeffekte und Musik getestet und es gibt ein paar, die sich wirklich von der Masse abheben und bieten die realistischsten Online-Casino-Erfahrung, kurz von Live-Händler Casinos.

1. EU-Casino hat wirklich große Zeit auf ihre hervorragende Spiele-Software-Auswahl verspritzt – Sie können sehen, dass jedes Spiel wurde individuell von einem Team von Künstlern und Musikern erstellt, um eine wirklich sublime Gaming Casino Erfahrung zu schaffen. Es ist einfach, den Spielern nur eine ganze Reihe von Spielen zur Verfügung zu stellen, die von unimaginativen Entwicklern ausgetauscht wurden, aber es ist so offensichtlich zu sehen, wann ein Kasino diese Sorgfalt mit seiner Spielauswahl genommen hat.

Mit Dutzenden von Casino-Spielen, jeder eine einzigartige audio-visuelle behandeln, finden Sie jede Sekunde im EU-Casino eine ästhetische Freude verbracht. Die HD-Slots hier sind besonders beeindruckend bei Spielen wie Ghost Pirates von Net Ent, die den Weg in modernste grafische Exzellenz führen.

Jedes Spiel hat seinen eigenen, einzigartigen atmosphärischen musikalischen Soundtrack, und einige der Slots Melodien sind so eingängig, dass du dich vielleicht summst, wenn du auf der Straße gehst!

Die Animationen und Grafiken sind alle in ultra High Definition so sicher sein, Ihre Hardware ist bis zu! Der beste Weg, dies zu tun ist, überprüfen Sie die Spiele kostenlos, besuchen Sie einfach die Website und klicken Sie auf ‘Spiele’, um die volle Auswahl von High-Definition-Casino-Spiele und erhalten eine kostenlose £ 1000 Spaß spielen Gleichgewicht, keine Registrierung erforderlich. Und vorbereiten, um von einigen der besten High-Def-Grafiken in der Online-Casino-Welt weggeblasen werden.

2. SlotsMillion ist das weltweit erste Virtual-Reality-Casino und es präsentiert eine wirklich unglaubliche grafische Erfahrung. Es ist kompatibel mit den neuesten VR-Headsets, kann aber auch auf einem Bestellcomputer oder sogar einem Handy oder Tablet gespielt werden.

Gleiten Sie durch die Türen und schauen Sie sich die virtuelle Casino-Umgebung, wie Sie zu gehen, um die Spielautomat nimmt Ihre Phantasie. Du bist nicht gesperrt, sobald du dich entweder wählst, du kannst dich umsehen und andere Spieler spielen, die ihr bestimmtes Spiel spielen, du musst sogar in die Warteschlange kommen, um auf dein Lieblingsspiel zu warten, wenn es keine Ersatzgeräte gibt! Ist das das realistische Slot-Erlebnis zu weit? Wir denken nicht, aber du kannst selbst nachsehen – es gibt keine Einzahlung, die notwendig ist, um einen Spaziergang durch das VR Casino zu machen.

Slots Million

3. PKR Casino ist die Online-Casino-Outlet der berühmten 3D PKR Pokerräume. Aber das ist kein Nachdenken, es ist ein wahres dreidimensionales hochwertiges grafisches Meisterwerk in seinem eigenen Recht mit voller 3D Lobby und Spieltabellen mit Anpassungsoptionen für Ihren Avatar, die alle in High Definition gerendert werden. Die proprietäre PKR Casino Software gibt die vollste virtuelle Casino-Atmosphäre, die Sie sich wünschen können.

Die Software wurde in Zusammenarbeit mit dem bekannten Casino-Spiele-Entwickler Playtech gemacht und so gibt es eine reibungslose Schnittstelle zwischen den 3D-Umgebungen und die 100 + Casino-Spiele, mit denen Playtech Casino-Spieler vertraut sein werden.

Ein High-End-Computer mit Glasfaser-Breitband wird empfohlen, um das PKR Casino in all seiner 3D-Ruhm voll zu schätzen.

Fotorealismus – die Zukunft der Videospiel-Visuals

Aiden Pearce

Stellen Sie sich vor, in die Augen eines Videospielcharakters zu schauen und zu wissen, dass sie dich angelogen haben oder dass sie Angst haben oder dass sie dich lieben.

Im Moment, auch mit der erstaunlichen Macht der aktuellen Multi-Core-Prozessoren und Grafik-Chipsätze, die Menschen, denen wir begegnen in visuell schöne Spiele wie Far Cry 4, Assassin’s Creed: Unity und Tomb Raider fehlt etwas in ihren Gesichtern, einige Funken der Menschheit. Das Phänomen hat einen bekannten Namen, das Uncanny Valley, geprägt von Robotik Professor Masahiro Mori. Seine Hypothese, die erstmals 1970 vorgebracht wurde, war, dass die menschlichen Reproduktionen der Echtheit näher kommen, die winzigen Ungenauigkeiten zunehmend beunruhigen. Videospiel-Charaktere sehen so echt aus, aber nicht echt genug, und wir kehren von ihnen zurück.

Videospielwelten sind ähnlich abstrahiert. Die Stadt Los Santos in Grand Theft Auto V; Das geschäftige Paris von Assassin’s Creed: Einheit … all die Details sind da, aber das sind nur virtuelle Filmsets. Die meisten Türen sind verschlossen, und wenn Sie GTA’s mächtigsten Raketenwerfer in jedem Gebäude, die explosive Auswirkungen wird überhaupt keine Schäden. Die rechnerischen Kosten für die Simulation von kollabierenden Mauerwerk ist riesig.

Die Probleme der Realität

Dies sind die Herausforderungen für die Macher von Videospiel-Grafikkarten, die Stücke von komplexen Hardware, die in Ihren Computer oder Konsole schlitzten und die neben der zentralen Verarbeitungseinheit arbeiten, um diese atemberaubenden Visuals zu produzieren. “Spielentwickler interessieren sich zunehmend für hoch simulierte und dynamische Welten, die es Spielern ermöglichen, auf interessante Weise zu schaffen, zu zerstören und mit der Umgebung zu interagieren”, sagt Tony Tamasi, Senior Vice President für Content und Technologie am Grafikhardware-Spezialisten Nvidia. “Durch mehr dynamische Erfahrungen oder simulationsgetriebene Entwürfe werden die Welten lebendiger und involviert, ohne unbedingt sorgfältig – und teuer – modelliert, animiert und skriptiert zu sein.”

Anstatt Umgebungen als verklärte 3D-Filmsets zu konstruieren, bauen die Spielentwickler sie nun als Gruppen von simulierten physischen Objekten auf, die auf Spieleraktionen reagieren. Seit einigen Jahren gibt es Bewegungen in dieser Richtung: Titel wie Red Faction, Far Cry, Crysis und Breach haben alle eine zerstörbare Landschaft gezeigt, aber es wurde sehr kontrolliert und auf bestimmte Bereiche isoliert. Sogar das visuell beeindruckende Levolution-System von Battlefield 4, das authentische Momente der massiven landschaftlichen Zerstörung schafft, arbeitet nur mit bestimmten Gebäuden. Allerdings scheint es bevorstehende Titel wie Microsofts Reboot von Open-World-Action-Abenteuer Crackdown und Multiplayer-Strategie-Shooter Rainbow Six Siege werden beide große Zerstörung, die vollständig verändert die Umgebung für Spieler.

Dies wurde durch Fortschritte in Echtzeit-Physik Berechnungen von beiden Grafikkarten-Hersteller und die Coder hinter erweiterte 3D-Spiele-Motoren wie Cryengine und Unreal Engine 4 erlaubt. Wir sind in eine neue Ära der physikalischen Rendering, wo die Eigenschaften Der einzelnen Textilien und Materialien werden simuliert, um natürliche, reaktive Umgebungen zu erzeugen. “Wir mussten GPU-freundliche, hochparallele physikalische Simulationsalgorithmen entwickeln, die uns in vielen Fällen dazu verpflichtet haben, Algorithmen auf einer fundamentalen Ebene zu überdenken”, sagt Tamasi. “Wir sind an der Stelle, wo diese Dinge wirklich Erfahrungen mitbringen können. Die Batman- und Borderlands-Franchise haben diese Fähigkeit zu Herzen genommen. ”

Schalten Sie die Lichter ein

Ein weiterer wichtiger Teil dieses Schrittes auf naturalistische simulierte Umgebungen ist die Beleuchtung. Seit vielen Jahren wurden Licht- und Schattenquellen in Videospielszenen “gebacken”, was bedeutet, dass sie von Künstlern auf die Landschaft gezogen wurden. Jetzt spielen Spiele realistische physikalische Lichtquellen, die die Wechselwirkung zwischen Lichtstrahlen und Objekten simulieren. Charaktere werfen Schatten, wie sie unter Straßenlaternen laufen; Flammen glänzen aus Metallschwertern. Der heilige Gral ist “globale Beleuchtung”, im Wesentlichen ein System, das genau simuliert, wie Licht reflektiert und zwischen verschiedenen Oberflächen reflektiert und eine Reihe von indirekten Lichtquellen erzeugt. Dies ist in animierten Filmen üblich, aber sie können jede Szene im Voraus machen, mit ganzen Farmen von leistungsfähigen Computern; Spiele müssen jeden Moment in Echtzeit auf einem PC oder einer Konsole rennen.

“Wir haben im Laufe der Jahre erstaunliche Fortschritte in Echtzeit gemacht,” sagt Tamasi. “Schatten sind von einfachen Blöcken gegangen, zu hartnäckigen Schatten, zu weichen, scharfen Schattenkarten, zu einer Form der globalen Beleuchtung, die als Umgebungsverschluss bezeichnet wird. Viele Filme mit umfangreicher Computergrafik arbeiten mit fortgeschrittenen Formen des Renderings namens Pfadverfolgung. Diese simulieren die tatsächliche Lichtausbreitung, schießen Milliarden von Strahlen in die Szene, hüpfen sie herum und körperlich simulieren die Licht-Interaktion mit einer Oberfläche. Diese Techniken können große Ergebnisse erzielen, sind aber unglaublich rechnerisch teuer. Sie können auf GPUs aber getan werden; Nvidia hat Iray, eine körperlich korrekte, fotorealistische Rendering-Lösung und OptiX, eine Raytracing-Engine, die Sie auf ein neues Niveau des interaktiven Realismus hebt. ”

Wir sehen die Früchte dieser Fortschritte im Jahr 2015. Die Witcher 3, Bloodborne und Project Cars verfügen alle über komplexe Echtzeit-Beleuchtung und Schatteneffekte und versprechen, auf Elementen wie dynamisches Wetter, Tag / Nacht-Zyklen und subtil zu innovieren Partikeleffekte “Stellen Sie sich vor, wirklich simulationsbasierte volumetrische Staubwolken, die von einem Lande-Chopper getrampelt wurden, mit Spieler-Charakteren, die sich durch diese Staubwolken bewegen und mit ihnen zusammenarbeiten”, sagt Tamasi. “Oder Charaktere, die Löcher in die Wände eines Schlosses blasen, so dass das Sonnenlicht von außen her strömen, vom Boden herabspringen, zu den Wänden, zu den Vorhängen.”

Die menschliche Frage

Aber es gibt noch eine große Frage, die über die Bewohner dieser Umgebungen schwebt. Während die Gesichter von Joel und Ellie im Letzten von uns und Kevin Spacey in Call of Duty: Advanced Warfare, Momente der echten Menschlichkeit haben, gibt es immer noch eine eindringliche Versetzung. Ein Spalt.

Nvidia sieht es. “Haut ist ein rechnerisch hartes Problem”, sagt Phil Scott, Nvidias führender technischer Evangelist in Europa. “Die Haut wird Licht von der Umgebung annehmen und dann streut das Licht in den ersten Millimetern des Fleisches herum. Dann wird es wiederhergestellt, gefärbt von dem, was es angetroffen hat. Wenn ich meine Hand bis zum Licht halten würde, wirst du ein rotes Glühen um die Ränder sehen: in Spielen, wir sind wirklich in diese wichtigen Feinheiten jetzt. ”

Haare auch, war schon immer ein Problem – Rendering Tausende von Wellen, um etwas zu schaffen, das nicht aussieht wie eine Plastik-geformte Perücke hat viele Teams versucht. AMD, ein weiterer Grafikkartenhersteller und Nvidias Hauptkonkurrent im Raum, hat seine TressFX-Technologie entwickelt, um das Problem zu lösen – es produzierte Lara Crofts überzeugend hüpfendes Ponyschwanz im Tomb Raider-Spiel.

Es scheint wie periphere Sachen, aber es ist nicht. “Wenn Videospiele mehr emotionale Geschichten erzählen sollen, dann ist das wichtig”, sagt Scott. “Bessere Haut macht Zeichen glaubwürdiger; Und die Augen sind das Tor zur Seele. Als Menschen sehen wir uns in den Augen an, wir kommunizieren durch die Augen; So dass, obwohl sie einen kleinen Teil des Bildschirms Platz nehmen, müssen die Entwickler eine Menge von Rendering-Aufwand zu machen, um sie realistisch zu verbringen. ”

Jon Jansen, Nvidias Entwicklertechnologie für Europa, nimmt das Thema auf. “Die Augen sind so komplex, weil sie mit Licht interagieren”, sagt er. “Es gibt viele interne Reflexionen, weil es ein Linsensystem ist. Schauen Sie sich die Art und Weise an, dass die Automobilindustrie versucht, Scheinwerfer in ihre Simulationen zu machen – das ist ein echter Test für Ray-Tracing, weil Sie so viele interne Reflexionen haben. Da ist etwas los mit den Augen.

“Es gibt auch die Frage der sub-Oberfläche Streuung von Licht innerhalb der Hornhaut, weil es nicht eine perfekt undurchsichtige Oberfläche ist. Es gibt all diese subtilen, physikalischen Phänomene, die im Auge vor sich gehen, und wenn du Zeit hast, das richtig zu bekommen, wirst du belohnt – man kann erstaunliche Ergebnisse erzielen. ”

Emotionen als Spieldesign

Natürlich werden zerstörbare Welten mit realistischen physikalischen Eigenschaften und schönen menschlichen Charakteren mit schrecklichen Augen nicht schlechte Spiele, gute oder langweilige Geschichten aufregen, aber sie können es Entwicklern erlauben, subtilere Erzählungen zu erforschen. Rockstars 2011 Krimi-Drama LA Noire, die umfangreiche Verwendung von Gesichts-Motion-Capture, fragte Spieler zu erarbeiten, wenn Verdächtige lagen während des Verhörs durch das Lesen ihrer Ausdrücke und Körpersprache. Die emotionale Treue war nicht ganz da, aber es könnte in ein paar Jahren Zeit sein. Ende letzten Jahres veröffentlichte Supermassive Games eine Demo von seinem kommenden Until Dawn Titel und zeigte seinen beeindruckenden Gebrauch der kontextuellen Gesichtsanimation:

Vielleicht werden wir eines Tages in die körperlich gerenderten Augen der Spielfiguren schauen und verstehen, von der Art, wie das Licht von ihren Hornhäuten glänzt, dass sie verärgert oder verzweifelt sind. Vielleicht wird emotionale Intelligenz eines Tages so wichtig sein, ein Spiel Geschick wie Hand-Auge-Koordination.

Aber werden wir jemals auf der Bühne sein, wo wir Spielumgebungen und Spielcharaktere verpassen, für die reale Sache? Tim Sweeney, Mitbegründer von Epic Games, sagte im vergangenen Jahr, dass wir es in zehn Jahren erwarten können. Ist er recht “Wir sind ein langer Weg vom Fotorealismus in Echtzeit-Rendering”, sagt Tamasi. “Wir kommen gerade in den Kino, wo begrenzte Mengen an menschlichem CGI für die meisten Zuschauer [als fotorealistisch] übergehen. Das sind Filme mit effektiv unendlichen Renderzeiten pro Rahmen, und Künstler sorgfältig scannen, handwerklich und animieren eine einzige Aufführung.

“Real-Time-Grafik ist wahrscheinlich ein Jahrzehnt oder mehr hinter dem Film in Bezug auf das, was visuell vermittelt werden kann, und Film ist auch noch nicht” getan “. Ich würde sagen, wir haben Jahrzehnte mehr Innovation zu kommen. “