模型矩阵分解

1. 正文

通常来说,模型矩阵(R)的一种比较好的级联方式为:先缩放(S),再旋转(R),最后平移(T):

\[\textbf{R} = \textbf{T} * \textbf{R} * \textbf{S} \]

如果不考虑缩放变换,那么模型变换实际上是一种刚体变换。此时四维模型矩阵的左上角3X3矩阵就是旋转矩阵,第四列就是平移量。但是加上缩放变换,就变成一个复杂的问题了。可以参考GLM的实现:

#include <iostream>
#include <glm/gtx/matrix_decompose.hpp>
#include <glm/gtx/euler_angles.hpp>
#include <glm/gtx/quaternion.hpp>

static void PrintMat(const glm::mat4& m)
{
	for (int i = 0; i < 4; i++)
	{
		for (int j = 0; j < 4; j++)
		{
			printf("%.9lf\t", m[i][j]);
		}
		printf("\n");
	}
}

static void PrintVec3(const glm::vec3& v)
{
	printf("%lf\t%lf\t%lf\n", v.x, v.y, v.z);
}

static void PrintVec4(const glm::vec4& v)
{
	printf("%lf\t%lf\t%lf\t%lf\n", v.x, v.y, v.z, v.w);
}


int main()
{
	//平移矩阵
	glm::vec3 position(100,200,300);
	glm::mat4 translationMatrix = glm::translate(glm::identity<glm::mat4>(),
		position);

	//旋转矩阵
	glm::vec3 eulerAngles(45,60,70);
	glm::mat4 rotationMatrix = glm::eulerAngleYXZ(glm::radians(eulerAngles.y),
		glm::radians(eulerAngles.x), glm::radians(eulerAngles.z));

	//缩放矩阵
	glm::vec3 scalePre(2, 3, 4);
	glm::mat4 scaleMatrix = glm::scale(glm::identity<glm::mat4>(), scalePre);

	glm::mat4 modelMatrix = translationMatrix * rotationMatrix * scaleMatrix;
	glm::vec3 scale;
	glm::quat quaternion;
	glm::vec3 translation;
	glm::vec3 skew;
	glm::vec4 perspective;
	
	glm::decompose(modelMatrix, scale, quaternion, translation, skew, perspective);
		
	PrintVec3(translation);
	PrintVec3(scale);
	PrintVec3(skew);
	PrintVec4(perspective);
	
	glm::mat4 rotationMatrix1 = glm::toMat4(quaternion);
	glm::vec3 euler(0, 0, 0);
	glm::extractEulerAngleYXZ(rotationMatrix1, euler.y, euler.x, euler.z);
	euler.y = glm::degrees(euler.y);
	euler.x = glm::degrees(euler.x);
	euler.z = glm::degrees(euler.z);
	PrintVec3(euler);
}

运行结果如下:
imglink1

可以看出分解出来的缩放、旋转、平移和级联前的一致。

除了缩放、旋转和平移,GLM提供的模型矩阵分解的函数接口glm::decompose()还提供一个skew参数和perspective参数,暂时没弄明白其具体含义,留待以后研究。

2. 参考

  1. glm - Decompose mat4 into translation and rotation?
  2. GLM_GTX_matrix_decompose
posted @ 2022-04-04 22:49  charlee44  阅读(342)  评论(0编辑  收藏  举报