3D Forum > Realtime 3D Render Engine Mizuchi und Yebis 3

Realtime 3D Render Engine Mizuchi und Yebis 3

10.05.2015 22:09
 
CrushSo. 10 Mai. 2015, 22:09 Uhr
Die neue Yebis 3 Macher und PBR Realtime Render Engine Mizuchi von Silicon Studio kann als Erste GI in Echtzeit in sehr hoher Qualität berechnen. Damit ist sie der UE4 in diesem Punkt überlegen, die GI noch baken und den Realismus vorrangig über Occlusion Shading erzeugen muß (kleine Korrektur, LPV und FXGI werden später im Thread noch erwähnt). Die gesamte Beleuchtung der Museum Demo kommt nur von außerhalb des Gebäudes durch die Fenster laut einem Youtube-Forum Post! Übrigens verwendet Allegorithmic´s Substance Designer Yebis 2.

http://www.siliconstudio.co.jp/middleware/yebis/en/

 
GuyGoodMo. 11 Mai. 2015, 10:20 Uhr
Auf deren Homepage habe ich das nicht gefunden, dass Yebis 3 Realtime GI verwendet. Als key-Features steht nur
Bokeh simulation (open/ close simulation of diaphragm blades, lens aberration/ correction simulations), high-quality SSAO, and I/O color-space conversion are the major new features implemented in YEBIS


Woher nimmst du deine Aussage? Wollte gern mehr darüber lesen, welche GI Lösung genutzt wird usw, also falls du da nen direkten Link hast, würde es mich freuen.
 
CrushMo. 11 Mai. 2015, 13:25 Uhr
Zum einen hat das einer von denen beim Youtube Video in den Kommentaren gepostet:
Only this Engine is capable of rendering in realtime, INDIRECT LIGHT! All lighting in the scene is coming from the gaps in the window. This is a phenomenal breakthrough! Other engines would just make the whole room bright and darken the areas where objects make contact with another object, but this engine is actually modeling the realistic spreading of the light where certain areas become darker the as the light rays can't reach some areas as well as other areas.


Außerdem haben sie dieses Tech-Video 2012 gepostet (!!! 20 bounces 360fps on GTX560 !!!): und im Cryengine Forum letztes Jahr schon geschrieben, daß die Mizuchi Engine eine neue Technik namens Modular Radiance Transfer für Realtime GI verwendet, was man in diesem Papier von 2011 lesen kann für den, den genauere Details interessieren: http://www.ppsloan.org/publications/mrtSA.pdf

Anbei wird Yebis 3 auch von Pixar und von OToy für Brigade eingesetzt. Also kann es nicht nur für Game Engines, sondern auch noch in Raytracing Renderern als Powerup verwendet werden.

Wenn wir schon beim Echtzeit GI sind. Es gibt noch weitere Entwicklungen, die das ermöglichen, wie NVidias VXGI (Voxel Global Illumination http://www.geforce.com/hardware/technology/vxgi) was im nächsten Unreal Engine Update zu sehen sein wird

oder Cascaded Voxel Cone Tracing http://fumufumu.q-games.com/archives/2014_09.php#000934 wie in "The Tomorrow Children":

Grafik in Echtzeit wird also schon sehr bald einen riesen qualitativen Sprung nach vorne in Richtung Raytracing Qualität machen insbesondere bei der bisherigen Raytracer Domäne Global Illumination und Color Bleeding.
 
GuyGoodMo. 11 Mai. 2015, 18:22 Uhr
Zuerst einmal vielen Dank für deine Antwort.

Leider ist diese aber nur so minder befriedigend.

Das von dir angeführte Zitat ist vom Youtube-User "GcoEnterprise" und dieser hat nichts! mit Silicon Studio zu tun. Jedenfalls nicht erkennbar aus seinem Profil und der Art und Weise des Kommentars. Dieses Zitat also in den Mund der Entwickler zu legen halte ich für gewagt. Und bisher habe ich auch nix, aber wirklich gar nix von offizieller Seite bezüglich Realtime GI gefunden. Ich möchte das auch nicht bestreiten, dass Yebis 3 das unterstützt und Realtime GI in dem Video verwendet wird, aber offiziell wird dazu auch keine Aussage getroffen. Und inwiefern wirklich Support Engine-seitig vorhanden ist, ist fragwürdig.

Genauso wie deine Aussage
was im nächsten Unreal Engine Update zu sehen sein wird
bezüglich VXGI. Zur Zeit gibt es da nur einen Github-Branch, der nicht einmal direkt von Epic gepflegt wird und die genauen Aussagen im Forum:

These images are rendered with the latest version of VXGI, which supports multiple indirect bounces (right column) and with single bounce for comparison (left column). One spot light, no ambient, no light maps, no SSAO.
While multibounce support was primarily added to improve diffuse and specular lighting, it plays really well with refractions too. While we already have support for multibounce in UE, there are no such refractive materials there yet....so it's not quite ready for release yet.


Quelle:
https://forums.unrealengine.com/showthread.php?53735-NVIDIA-GameWorks-Integration/page33

lassen darauf schließen, dass VXGI noch weit entfernt ist, wirklich sinnvoll in die UE4 integriert zu werden. Vom nächsten Release kann da keine Rede sein.

Kann man UE4 heute hier und jetzt mit Realtime GI probieren. Ja, aber das ist alles nur Gefuddel und noch lange nicht praxistauglich. Eine Tech-Demo eben.
Und das auch von dir erwähnte Voxel-Cone-Tracing wurde ja von Epic sicherlich aus guten Gründen wieder verworfen, nachdem es da seitens Epic auch diverse Tech-Demos gab.

Von daher gebe ich dir insofern Recht, dass es schon einige Engines gibt, die verschiedenste Methoden zur approximierten Darstellung von GI verwenden, aber praxisreif ist da noch nichts wirklich. Und genau deswegen finde ich deine Aussage auch schwierig. Zumal UE4 auch Realtime GI Spielerein enthält, von daher wäre Yebis 3, insofern Sie wirklich einen Realtime-GI Algorithmus drin hätten, nicht die erste Engine.


--------

Edit: Ich habe mich jetzt noch ein wenig belesen und Yebis 3 ist quasi nur Post-Processing Middleware. Demzufolge hat Yebis 3 mit GI nichts zu tun. Wenn dann müsste der Titel "Realtime 3D Render Engine Mizuchi" heißen, da dies das Engine-Middleware Produkt von Silicon Studios ist, insofern ich das richtig verstehe. Und von Realtime GI steht auf deren Seite auch leider nicht viel. Inwiefern das praktikabel implementiert ist, kann wohl nur der Entwickler oder die Nutzer sagen.

Also sorry fürs lange ausholen, aber insofern nichts genaueres vom Entwickler kommt, würde ich einfach vorsichtig mit solchen Aussagen sein, denn sie sind einfach ungenau und ein wenig vermisse ich auch die korrekte Quellenarbeit für einen Beitrag im News-Bereich, nimm mir das bitte nicht übel.

Bezüglich Brigade wird Yebis 3 also da auch nur fürs Post-Processing verwendet, mit GI hat das nichts zu tun.

Alles in allem ging es mir nur darum, dass falls es einen praktikableren Algorithmus gibt als die mir bisher bekannten, dass ich darüber mehr erfahre. Sorry, wenn ich damit ein wenig deinen Beitrag hier in Frage stelle. Aber die Aussagen deinerseits ohne Quellen etc. sind einfach zu vage und teilweise auch einfach falsch (von wegen erste Engine etc.) und irreführend (weil Post-Process Middleware ohne GI Fähigkeiten) . Bitte nimm mir das nicht übel
 
CrushMo. 11 Mai. 2015, 20:39 Uhr
Stimmt, die Engine heißt Mizuchi - ich korrigiere das dann noch. Auf jeden Fall soll das realtime GI sein, wie auch immer geartet. Die Entwickler haben wie schon erwähnt irgendwo im Crytek-Forum etwas mehr darüber erzählt - von dort habe ich auch ein paar der Video Links und Infos her. Vielleicht findet man auf japanisch mehr von denen. Die Entwickler sind auf jeden Fall das gleiche Team "Silicon Studio" und auch im Mizuchi Tech Demo wird am Ende nicht eine "Mizuchi Engine", sondern Yebis 3 eingeblendet, welches das große Produkt der Entwickler ist, vielleicht habe ich das deshalb verwechselt. Daher ist davon auszugehen, daß die Technik nicht nur in einer einzelnen nicht öffentlichen Engine von Silicon Studio vorhanden sein, sondern über Yebis zu bekommen sein wird. Dass über Yebis 3 noch nicht allzu viele Informationen öffentlich sind ist auch klar, da sich das noch in Entwicklung befindet und sich sicher noch etwas ändern kann. Aber warten wir doch ab, wie und auf welche Weise das dann verfügbar sein wird.

Ich denke, daß das alte Tech-Demo sehr wohl zeigt, daß es sich um Echtzeit GI handelt. In den PDF Dokumenten wird übrigens auch klar erwähnt, daß das ganze nicht nur für statische Szenen, sondern gerade für dynamische Szenen und bewegte Charaktere anwendbar ist.

Unreal Engine 4 hat nur ein Pseudo GI eingebaut, welches man erst aktivieren muß "LPV" (Light Propagation Volume): http://www.vis.uni-stuttgart.de/~dachsbcn/download/lpv.pdf. Das scheint aber nach den Threads dort sehr viel Rechenzeit zu benötigen und eine schlechte Qualität zu liefern, was ich aber jetzt nicht aus eigener Erfahrung bestätigen könnte. Auch VXGI scheint nicht das gelbe vom Ei zu sein wie ich hier so gelesen habe: https://forums.unrealengine.com/showthread.php?60958-So-the-quot-realtime-GI-quot-is-just-pre-computed. Insofern haben die in UE4 irgendetwas drin, aber eben bisher nichts qualititativ Vergleichbares. Das VXGI jedenfalls existiert (frag doch bei NVidia nach) und wird auch in UE4 implementiert werden so wie´s aussieht. Solange das noch nicht im GITHub drin ist, kann ich das natürlich nur hoffen.

Im Gegensatz dazu sind die anderen beiden Engines von Silicon Studio und diesem anderen Spiel "echte" Game Engines, die auf HD & >= 60 Hz ausgelegt sind. Außerdem wird hier von echten "light bounces" geredet, was ebenso wie die Videos nicht gerade auf ein Pseudo Fake GI hinweist. Unabhängig davon ob es sich um GCOEnterprise um einen Troll, der nur Müll verbreitet handelt, zeigen andere Quellen, daß das tatsächlich eine GI-Engine ist. Leider würde selbst der Name "Silicon Studio" niemals 100% der Beweis sein, daß ein Post echt ist oder nicht - so ist das Internet eben. Da sich seine Aussagen mit denen anderer deckt und das nicht gerade wie reine Spekulationen liest, gehe ich davon aus, daß es ein Interner ist, der die Engine kennt.

Ich habe schon im nachfolgenden Post ein paar Beispiele gebracht, die sehr wohl belegen, daß es keine vorberechnete Beleuchtung ist und solange sich das nicht alles als Fehlinformationen heraus stellt, gehe ich davon aus, daß sie echt sind.

Ich bin kein Angestellter der beruflich hier Recherchen macht und nur ein Hobby CGler wie vermutlich viele hier, aber mit einem speziellen Hintergrund (CAD/Softwareentwicklung), was nicht bedeutet, daß ich gleich jeden Algorithmus hier mundgerecht auseinanderpfriemeln und analysieren muß. Sicherlich wären dazu die meisten, die irgendwo irgendwelche "News" posten auch nicht in der Lage jede Interessensgruppe in deren gewünschten Informationsauflösung zu bedienen. Manche "News" muß man bei Erscheinen einfach als gegeben hinnehmen. Aber durch Dein Nachfragen habe ich mich eben noch ein wenig mehr in die Materie rein gearbeitet und denke so langsam einen brauchbaren Überblick zu bekommen.Solange ich die Engine nicht selber in den Händen halte kann man sich nie sicher sein ob so eine Nachricht echt ist oder nicht. Man kann sich natürlich sicher sein, daß die GI Berechnung nur eine ausgefuchste Annäherung an eine "echte" GI Beleuchtung ist, sonst wären Ray/Pathtracer sicher schon viel schneller realisierbar, als sie es gerade sind. Jedenfalls sieht dieses Demo besser aus als alles, was ich bisher gesehen habe und darum geht es: Es ist etwas Neues in dieser Hinsicht.

Das z.B. Brigade Yebis verwendet heißt nicht, daß es schon GI Effekte der Nachfolgeversion und Mizuchi Engine nutzt - das habe ich auch nicht behauptet. Es geht nur darum, daß ein paar größere Namen schon mit Yebis 2 arbeiten, weshalb davon auszugehen ist, daß es sich bei dieser Firma und deren Produkten nicht um Fakes handeln dürfte. Das hätte ich vielleicht nicht nur kurz "erwähnen" sollen, wenn das zu solchen Verwirrungen führt, aber es ist auch keine Fehlinformation. Wenn andere dort mehr hinein interpretieren als da steht, ist das nicht mein Problem. Manchmal muß man eben etwas spekulieren, aus mehreren Informationen ein Fazit ziehen oder 1+1 zusammen zählen. Für jede News kann man aber auch nicht gleich einen wissenschaftlichen Artikel verfassen, auch wenn die Neugier mancher Pros groß ist und alles am liebsten gleich alles auf einem Silbertablett serviert bekommen möchten. Egal ob Du die News als echt akzeptierst oder nicht, bin ich mir sicher Dir hier deutlich mehr an Quellen, Beispielen, Videos und Infos geliefert zu haben als jede einzelne kleine News-Seite, die nur aufs Video verlinkt. Den Rest kannst Du auch gerne selber weiter Recherchieren wenn Du möchtest - keiner hindert Dich. Neuigkeiten müssen nicht immer auf felsenfesten Fakten basieren.

Ich finde jedenfalls das Thema und die Engine ist einen Post wert und wer mehr wissen will kann sich auch anderswo noch schlau machen. Ich möchte jedenfalls nicht meine News posten wie die Leute im Fernsehen das gerne machen (etwas überspitzt): "Ein mutmaßlicher Täter hat vermeintlich einen Mord begangen und vermutlich ein paar Menschen dabei eventuell getötet."

Ebenso hätte es dann auch ein Einzeiler als News getan:
Es könnte nach Gerüchten im Internet sein, daß eine Firma namens Silicon Studio eine 3D Engine entwickelt haben dürfte, die eventuell globale Beleuchtung in einer neuen Qualität ermöglicht, sofern es sich nicht heraus stellt, daß es sich um eine News-Finte handeln könnte - Alle Angaben ohne Gewähr oder Faktenbelege
 
GuyGoodDi. 12 Mai. 2015, 11:53 Uhr
Jo, kein Ding, danke fürs ändern. Meine Aussage war nur, dass man jetzt nicht direkt davon ausgehen kann, dass in dem Video Realtime GI direkt verwendet wird, nur weil das Unternehmen vor 2 Jahren einmal eine Tech-Demo mit GI am Laufen hatte Und ob die Lösung, wenn es denn eine gibt, besser ist als LPV oder VXGI etc. sieht man halt in dem Video auch nicht. Mehr wollte ich gar nicht mehr anmerken, aber ich freue mich ja dennoch auch immer über News aus dem Realtime-Bereich etc. Von daher, wenn du wieder was findest, nur her damit
 
CrushDi. 12 Mai. 2015, 13:45 Uhr
Noch mehr News hierzu?
Zur Mizuchi Engine gibts noch ein weiteres Filmchen:

Parallel zu Mizuchi Engine gibts schon den Beta-Release zur C# Opensource Multiplattform-Entwicklungsumgebung Paradox: http://paradox3d.net/ womit auch kommerzielle Projekte kostenfrei entwickelt und vertrieben werden können.

Paradox hat auch eine High-End Realtime Render Engine eingebaut, allerdings weiß ich nicht, ob es sich um die gleiche, eine abgespeckte oder eine vollkommen andere 3D Engine wie Mizuchi handelt. Jedenfalls ist Paradox auch erst relativ frisch released worden und (weil Beta) noch weiterhin in Entwicklung. Andere Plattform-Releases als Windows sollen noch demnächst erscheinen.
Die Dokumentation kann man hier Online einsehen: http://doc.paradox3d.net/html/index.htm?page=main und die Render Qualität ist jedenfalls auch nach diesen Videos erste Sahne:




 
 

 


 
 
© 3D-Ring - deutsche 3D Software Community, Archiv 2001 - 2006