微美全息推出实时网络全息显微镜交互技术,可广泛应用于教育科研

砍柴网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

据悉,微美全息推出了实时网络全息显微镜技术,可显着提高沿光轴的分辨率(横向和轴向分辨率分别为:0.4μμm 和 0.8μμm)其中由三个准直的LED,每个LED具有不同的颜色(RGB),从三个不同的方向撞击样品。相机的每个通道记录一个独立的全息图,该全息图由入射光与物体散射的光之间的干涉产生。这三个全息数字图像被传输到GPU运算,计算三个相应的容积重建。目前重建中的每一路信号都受到轴向分辨率差的影响,但它们的重叠返回了一个体积图像,其等值面轮廓非常接近于简单微观物体的表面。

资料显示,WIMI微美全息实时网络全息显微镜技术,支持通过虚拟现实设备进行用户交互,可以使用手势(即“抓取”)或更复杂的远程控制交互方式,实现独立创建、销毁、选择和移动。当引擎检测到与捕捉的创建、销毁或位移相关的事件时,描述更新的捕捉配置的数据将通过网络连接发送到“全息引擎”。全息引擎在一台控制单独实验室光学硬件的计算机上运行。当收到来自“ VR 引擎”的更新请求时,全息引擎在GPU上计算优化的数字全息图,并直接将其显示在空间光调制器上。准直红外激光束从SLM反射并获得相位调制,使得在通过显微镜物镜传播后产生的衍射极限光斑具有与其虚拟对应物相同的空间排列。这些光斑中的每一个都用作光学捕捉,可用于抓取和操纵小的介电物体。通常,捕捉重排将导致附近物体的快速运动,在全息图像中捕获并由“全息引擎”实时处理。对获得的体积重建进行分割,以提取所有已识别物体的相关几何特征。这些几何数据被发送回“VR引擎”,以更新对象的几何参数,提供在显微镜下交互式操作的真实对象的虚拟表示,如图所示。

微美全息推出实时网络全息显微镜交互技术,可广泛应用于教育科研

SLM会以60 Hz的速率刷新,对应于全息影像显示的最短延迟时间为17毫秒,可以保证流畅的交互式操作体验。同时显示在SLM上的相位调制,以在虚拟手柄的3D排列所指示的位置生成光学捕捉,显示了在VR头显上进行数值重建、跟踪和渲染之前记录在相机三个颜色通道上的原始全息图。使用虚拟手抓取物体并将其排列成可以身临其境和实时检查的3D全息配置,并允许通过手势和实时沉浸式反馈直接操作。可以极大地简化微装配任务,特别是对于以前没有显微镜和捕获经验的用户。

微美全息(NASDAQ:WIMI)实时网络全息显微镜交互技术。还实现了一系列工具来跟踪对象并在显示器上观察其坐标的时间演变。使用全息光学镊子能够在3D中动态排列多个捕捉,我们可以在受控的空间配置中精确排列多个胶体颗粒或活细胞,以研究它们在可重复的初始条件下的随机行为,或它们在生长过程中的生物相互作用,还可以抓取和旋转具有复杂形状的微加工物体,这些物体可用作高级显微镜应用的工具。在这方面,虚拟现实接口可以简化和加速多组分微系统的组装,并允许通过手势和实时沉浸式反馈直接操作。

对像细菌一样大小与光波长相当的物体进行全息成像是一项相当具有挑战性的任务。体积重建表示通过点扩散函数对实际对象形状的卷积,该函数近似于3D高斯,并导致最终3D图像模糊(尤其是沿垂直轴)。WIMI微美全息实时网络全息显微镜技术,有一个关于形状的可靠先验信息,通过体积重建来推断这些形状的几何参数,使用了行进立方体算法重建的体积图像,在“全息引擎”GPU上执行,输出多边形网格,其顶点和三角形通过 互联网 发送到“VR引擎”进行实时渲染。

微美全息实时网络全息显微镜交互技术,通过虚拟现实呈现了一个强大的界面来合并3D显微镜和显微操作的全息技术。提供了微观现象的身临其境的互动体验。我们可以在芯片上进入实验室,在显微镜载玻片上游走,实时观察我们周围发生的动态现象,并使用虚拟手抓取、移动和构建微观物体和活细胞的 3D 空间排列。这种方法可以扩展到许多不同的方向。所有这些全息交互的数字信息可用作向学生解释,并第一人称进行实验并观察微观世界,为控制由细胞和胶体颗粒填充的微观世界的物理定律提供了独特而强大的体验。

随意打赏

提交建议
微信扫一扫,分享给好友吧。