电脑图像

计算机图形学研究人员和程序员的问答


1
模拟Young的双缝实验
杨氏双缝实验的建立和解释都非常简单,但这是衍射和干涉的一个例子,两者均不能通过传统的射线追踪来建模。 使用纹理渲染结果的近似值很简单,但这需要预先知道结果应该是什么。对于任意装置,在事先不知道狭缝的数量和位置的情况下,是否存在用于对效果进行建模以生成正确的最终图像的现有算法? 如果不是,为了准确产生这些效应,模型需要包括什么?可以将光线跟踪修改为使用带有附加信息的光线,还是需要全新的方法?

1
为签署距离场渲染创建资产?
在传统计算机图形学中,大多数3D模型是通过对细分的图元网格(通常是三角形或四边形)进行光栅化或光线追踪来渲染的。最近,已经有一些实时技术基于针对有符号距离场(SDF)的光线跟踪。直观地讲,这些距离场不能与传统渲染的三角形和四边形相同,并且必须类似于3D几何图元(立方体,球体等)才能获得适当的阴影。这是真的?如果不是,是否可以使用SDF来表示“传统” 3D模型的复杂场景?如果是真的,那么艺术家如何创建SDF渲染器中使用的高细节模型?

1
尝试实施Microfacet BRDF,但我的结果图像错误
我正在尝试实现微面BRDF模型。我正在读塞巴斯蒂安·拉加德的幻灯片。我在代码中实现了公式,但是我认为结果图像是错误的。 黄色是材料的底色。镜面反射颜色为红色才能正确看到。 我的代码: // Fragment Shader #version 330 core in vec3 Position; in vec2 TexCoord0; in vec3 Normal; in vec3 Tangent; out vec4 FinalColor; uniform vec3 uCameraPosition; // init value: vec3(0, 0, 5) #define PI 3.1415926f #define EPSILON 10e-5f #define saturate(value) clamp(value, 0.0f, 1.0f); float BRDF_Lambert(float NdotL) { return NdotL; …

1
光线追踪:为什么下图中的球体会被拉伸?
一些背景。上面是彼得·雪莉(Peter Shirley)在一个周末的书中的“光线追踪”中的代码和得到的图像。从代码中可以看到,他添加了一些领域。但在最终图像中,并排有两个椭圆体。无论我看了多少次代码,我都无法理解为什么会这样。谁能向我解释?这是源代码的链接。 https://github.com/petershirley/raytracinginoneweekend

1
在连续光谱射线跟踪中使亮度偏见有哪些副作用?
我想对连续频率范围内的光线进行建模,以便获得折射时具有色彩分离的光线追踪图像。我可以通过使用具有特定频率分布的光源来建模,方法是使用该分布来影响随机光线在给定频率范围内的概率,或者可以从均匀随机分布中选择频率,并使每条光线的亮度与特定频率下的频率分布。我认为第一个在物理上更准确,但是我怀疑第二个将使用更少的光线给出看上去“完成”的图像。这种直觉的怀疑正确吗?第二种方法会丢失图像中的任何功能吗?有没有办法在不损害图像的情况下提高速度?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.