Yin的笔记本

vuePress-theme-reco Howard Yin    2021 - 2025
Yin的笔记本 Yin的笔记本

Choose mode

  • dark
  • auto
  • light
Home
Category
  • CNCF
  • Docker
  • namespaces
  • Kubernetes
  • Kubernetes对象
  • Linux
  • MyIdeas
  • Revolution
  • WebRTC
  • 云计算
  • 人工智能
  • 分布式
  • 图像处理
  • 图形学
  • 微服务
  • 数学
  • OJ笔记
  • 博弈论
  • 形式语言与自动机
  • 数据库
  • 服务器运维
  • 编程语言
  • C
  • Git
  • Go
  • Java
  • JavaScript
  • Python
  • Nvidia
  • Shell
  • Tex
  • Rust
  • Vue
  • 视频编解码
  • 计算机网络
  • SDN
  • 论文笔记
  • 讨论
  • 边缘计算
  • 量子信息技术
Tag
TimeLine
About
查看源码
author-avatar

Howard Yin

304

Article

153

Tag

Home
Category
  • CNCF
  • Docker
  • namespaces
  • Kubernetes
  • Kubernetes对象
  • Linux
  • MyIdeas
  • Revolution
  • WebRTC
  • 云计算
  • 人工智能
  • 分布式
  • 图像处理
  • 图形学
  • 微服务
  • 数学
  • OJ笔记
  • 博弈论
  • 形式语言与自动机
  • 数据库
  • 服务器运维
  • 编程语言
  • C
  • Git
  • Go
  • Java
  • JavaScript
  • Python
  • Nvidia
  • Shell
  • Tex
  • Rust
  • Vue
  • 视频编解码
  • 计算机网络
  • SDN
  • 论文笔记
  • 讨论
  • 边缘计算
  • 量子信息技术
Tag
TimeLine
About
查看源码
  • 让NeRF动起来

    • Canonical-mapping volume rendering
      • Time-aware volume rendering
        • 4D Gaussian Splatting

        让NeRF动起来

        vuePress-theme-reco Howard Yin    2021 - 2025

        让NeRF动起来


        Howard Yin 2023-12-28 01:08:01 Nerf图形学

        动态NeRF的目标:输入坐标x\bm xx和时刻ttt输出颜色ccc和密度σ\sigmaσ。

        c,σ=M(x,t)c,\sigma=\mathcal M(\bm x, t) c,σ=M(x,t)

        动态NeRF技术路线:

        # Canonical-mapping volume rendering

        基于NeRF的隐式表达难以修改,所以就修改Ray Marching采样路径,让采样路径变弯从而实现动态场景:

        c,σ=M(x,t)=NeRF(x+Δx(t))c,\sigma=\mathcal M(\bm x, t)=NeRF(\bm x+\Delta\bm x(t)) c,σ=M(x,t)=NeRF(x+Δx(t))

        核心思想就是拟合这个Δx(t)\Delta\bm x(t)Δx(t)。

        • Fast Dynamic Radiance Fields with Time-Aware Neural Voxels
        • Robust Dynamic Radiance Fields
        • D-NeRF: Neural Radiance Fields for Dynamic Scenes

        # Time-aware volume rendering

        基于体素的显式表达不能移动位置,但是可以直接修改每个体素上的参数从而实现动态场景。

        • Hexplane: A fast representation for dynamic scenes
        • Neural 3D Video Synthesis From Multi-View Video

        # 4D Gaussian Splatting

        基于3D高斯点的显示表达可以直接移动位置。

        核心思想:计算高斯点位移ΔG\Delta\mathcal GΔG,然后直接对高斯点云G\mathcal GG进行移动得到下一帧高斯点云G′\mathcal G'G′:

        G′=G+ΔGΔG=F(G,t)\begin{aligned} \mathcal G'&=\mathcal G+\Delta\mathcal G\\ \Delta\mathcal G&=\mathcal F(\mathcal G, t) \end{aligned} G′ΔG​=G+ΔG=F(G,t)​

        模型设计:

        • spatial-temporal structure encoder 特征提取 f=H(G,t)f=\mathcal H(\mathcal G,t)f=H(G,t)
          • G\mathcal GG被表示为6个K-Planes
          • 模型本体是一个MLP和6个multi-resolution K-Planes modules
          • K-Planes: Explicit Radiance Fields in Space, Time, and Appearance
        • multi-head Gaussian deformation decoder 根据特征输出形变 ΔG=D(f)\Delta\mathcal G=\mathcal D(f)ΔG=D(f)

        模型训练:L=I^−I+Ltv\mathcal L=\hat I-I+\mathcal L_{tv}L=I^−I+Ltv​

        • L1 color loss I^−I\hat I-II^−I NeRF训练常见loss函数
        • grid-based total-variational loss Ltv\mathcal L_{tv}Ltv​ NeRF训练常见正则项,保证相邻顶点间的值尽量平滑
        • 实验中的训练时间20min~1h
        帮助我们改善此页面!
        创建于: 2023-12-28 00:38:58

        更新于: 2023-12-28 01:08:19