关于GPG4 《非封闭网络模型的GPU容积阴影构架》一文
2005-10-17 16:30
337 查看
今天看了《game programming gems4》的5.2节,文中提到了一种解决方案:
1。预处理过程:
对每个三角面生成三个独立顶点,拥有此面的法向。
对每个面产生三个边,然后对边作两两匹配(拥有相同端点的便匹配)。若有配对则生成degenerate-quad,否则说明此边为open-edge,需要push_back两个顶点,然后生成degenerate-quad。
注意这些退化四边形由indexbuffer存储。
2。渲染
渲染面向光源的面,背光面的剔除可以将输出坐标设为0
渲染延伸的(extruded)面,同上剔除背光面
渲染边(shadow volume),这一步相当于链接了front/back cap
原文并没有用z-pass/z-fail方法。
可以看到文章基本意思就是利用面向光源的面来作vs shadow volume。包括生成front/back cap。不过显而易见这种方法太过于耗费(需要提交原几何体三次,还是考虑了two-sided stencil),个人感觉不太实用。
1。预处理过程:
对每个三角面生成三个独立顶点,拥有此面的法向。
对每个面产生三个边,然后对边作两两匹配(拥有相同端点的便匹配)。若有配对则生成degenerate-quad,否则说明此边为open-edge,需要push_back两个顶点,然后生成degenerate-quad。
注意这些退化四边形由indexbuffer存储。
2。渲染
渲染面向光源的面,背光面的剔除可以将输出坐标设为0
渲染延伸的(extruded)面,同上剔除背光面
渲染边(shadow volume),这一步相当于链接了front/back cap
原文并没有用z-pass/z-fail方法。
可以看到文章基本意思就是利用面向光源的面来作vs shadow volume。包括生成front/back cap。不过显而易见这种方法太过于耗费(需要提交原几何体三次,还是考虑了two-sided stencil),个人感觉不太实用。
相关文章推荐
- 多图|一文看懂25个神经网络模型
- 关于winsock中网络编程事件模型和窗口消息模型中FD_WRITE的理解与数据的发送需要注意的关键点
- 关于网络模型的一些概念
- 关于卷积网络的模型融合---使用softmax实现
- 一文读懂高性能网络编程中的I/O模型
- 关于网络编程五种IO模型的形象比喻
- 关于SSDB的网络模型
- 网络构架框架和设计模型(整理部分)
- 关于网络编程五种IO模型的形象比喻
- 关于网络编程六种IO模型的形象比喻
- Alexnet网络模型在cifar-10数据集上的实现(基于tensorflow-gpu)
- 关于Facebook的模型以及技术构架的分析
- 一文看懂25个神经网络模型
- 关于应用gpu训练神经网络的注意事项
- 多图|一文看懂25个神经网络模型
- 关于winsock中网络编程事件模型和窗口消息模型中FD_WRITE的理解与数据的发送需要注意的关键点
- 一文看懂25个神经网络模型
- 关于网络通信模型的剖析:libevent libev libuv asio
- 关于重叠IO网络编程模型的学习!
- 【懒懒的Tensorflow学习笔记三之搭建简单的神经网络模型】