【动态】第十六期可视化与可视分析国际学术报告成功举办
Westermann教授带来了题为《Neural Network-based Upscaling and Sampling for In-Situ Visualization》(基于神经网络的原位可视化提升和采样)的精彩报告。首先,Westermann教授介绍了科学可视化相关的背景知识,科学数据可视化往往是事后(post-hoc)进行的,从存储中提取数据,从数据中抽取特征然后进行渲染;其中最重要的问题之一便是解决数据的可伸缩性(scalability)问题:
1. 计算和读写(I/O)能力之间存在差距:在21世纪10年代,计算速度增加了两个量级,而I/O能力却只增加了一个量级;
2. 模拟数据需要被存储,无法以足够的帧率被流式传输到内存:存储数据的时间比计算它们更长;
3. 在处理多变量数据和集合数据时,对I/O的要求甚至会更高;
Westermann教授提到,基于学习的尺度提升(upscaling)技术,利用人工神经网络,能够从低分辨率的输入中推断出高分辨率的结构(图1),这使得数据传输过程,只需要部分的数据样本和更低的像素。Westermann介绍了一种科学可视化中使用的超分辨率技术,基于残差网络生成双线性提升的超分辨率图像,用稠密光流来保持时序一致性。
在实际应用中,还可以将超分辨率技术和高分辨率渲染进行结合,对于用户感兴趣的区域(比如图2红色部分)则可以直接采用真实的高分辨率结构进行绘制,其周围(图2绿色部分)则可以用1:2的采样率进行超分辨率重构,对于不感兴趣的其它区域则用1:4的采样率进行重构即可。
接下去,Westermann教授回到原先的话题上,探讨事后可视化渲染的另一种可替代方案:将数据进行压缩以便进行流式传输或者实时存储,在远程的可视化端,就可以实时处理这些压缩的数据流。这些做法包括以下这些方面:
1. 仅抽取特定特征然后进行流式传输(但这还并不是真的数据压缩)
2. 用经典的压缩算法进行数据压缩并且进行流式传输;一旦进行流式传输,就可以随机存取压缩数据流,避免恢复整个数据集而导致数据规模问题
相较于传输原始数据,将数据压缩后再传输有助于缓解带宽压力,但是这一做法也将数据渲染时间从数秒提升到数分钟 ,这难以接受。Westermann教授团队提出了Fast Volume Scene Representation Networks(fV-SNR),从硬件和网络结构两方面的改进了先前的工作,减少了压缩和解压所需时间,即生成数据的紧凑表达所需的学习时间和渲染时间。
在硬件方面,该方法考虑了线程束中的线程个数、张量处理单元中的矩阵列数与共享内存大小。在网络结构方面,该方法提出三维隐空间网格,即原始数据在隐空间中的紧凑表达。结合网络参数与坐标轴,该表达可以对原始数据进行重构,即“解压”。
对比Compressive Neural Representations of Volumetric Scalar Fields中的方法(图6括号中数据),fV-SNR在降低训练时间和渲染时间上均表现优异(图6蓝色部分)。
该方法进一步将fV-SNR用于对时间序列的重构上。fV-SNR可以构造单帧数据的三维隐空间网格,通过对关键帧的三维隐空间网格进行插值,实现时间序列数据的重构。同时,这一过程也可视为对时间序列数据的解压。
Westermann教授提到了一些在做基于神经网络的数据缩减时的一些见解和挑战。首先,没有足够的高低分辨率的模拟数据用以训练,当然这一点可以通过诸如数据增强的方法进行解决。第二,在低分辨率图像推断高分辨率图像的过程中,并没有物理限制,这可能需要在神经网络中加入物理的先验知识和正则化。
在提问环节,Westermann教授和听众进行了热烈的交流。在谈及超分辨率技术在体数据原位可视化中的作用时,Westermann教授指出传输高分辨率的图像需要较长时间,通常会压缩图像以提高传输效率,而超分辨率技术则用于恢复压缩后图像的质量,虽然基于神经网络方法的渲染结果不是完全可信的,但它仍然为我们提供了一种方便、快速的体数据渲染方法。至于性能问题,随着硬件技术以及神经网络架构的进步,将会得以解决。另外有观众提问到:是否需要为特定的数据集训练特定的网络模型,还是在一组相似的数据集上共用一个模型?Westermann教授指出图像上采样模型将使用Ejecta数据集进行训练,然后用于其他所有数据集。至于图像压缩,则需要首先训练模型以适应特定的数据集,这通常比压缩本身更为耗时。因此Westermann教授认为模型的泛化能力非常重要,需要考虑如何克服过拟合,使得压缩模型能在其他数据集上共用。
《Visual Intelligence》英文刊编辑招聘启事中国图象图形学学会高校志愿者招募
中国图象图形学学会关于组织开展科技成果鉴定的通知