T
Ja, das hatte ich vor. Heute habe ich erste Experimente damit gemacht, aber ganz so einfach ist es nicht. Man wird praktisch "gezwungen", die Texturen von der Grafikkarte rendern zu lassen, denn sonst würde das Adaptive Subsampling nicht mehr richtig funktionieren.
Die Texturen von der Hardware rendern zu lassen, hat Vor- und Nachteile: ein Vorteil ist, dass es schnell ist und dass man sogar schöne Filter benutzen kann, ohne auf das Subsampling zu verzichten (ich verwende ja OpenGL, um die einzelnen Quadrate zu zeichnen, und dann werden die Texturkoordinaten automatisch mit interpoliert).
Nachteil: es ist mit mehr Aufwand verbunden als einen Software-Texture-Sampler zu schreiben (der aber, wie schon gesagt, nicht gut funktionieren würde - die Texturen wären dann allesamt verwaschen), und man muss einige Limitierungen in Kauf nehmen.
Ich hatte am Anfang keine Texturen mit eingeplant, darum ist es jetzt sehr schwer, sie noch einzubauen. Die werden dann integriert, wenn ich meine RTRT-Library schreibe (dann schreibe ich sowieso alles neu).
Texturen auf einer Ebene klappen schon (d.h. nur "direkt" sichtbare). Wenn sich etwas in einem Objekt spiegelt, dann hat das Gespiegelte aber noch keine Textur. Entweder mache ich das mit Multi-Pass-Alpha-Blending, oder mit Multi-Texturing.