这样的标准上海市疫情防控工作领导小组也好意思发布出来?

人民日报林治波社长发出灵魂拷问:你们是没有常识,还是没有良知?

伊朗著名美女明星、奥斯卡影后被捕!

母子乱伦:和儿子做了,我该怎么办?

阳了后,14亿人民才发现集体被忽悠了!

自由微信安卓APP发布,立即下载! | 提交文章网址

新机器视觉

网传稚晖君从华为离职创业,或投身机器人领域

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源丨机器之心导读
12月25日 下午 9:06

人脸识别通用业务流程及实现

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达1、通用流程概述根据实际应用场景以及硬件配置,活体检测和特征提取可选择是否采用并行的方式。如上图所示,人脸识别的核心业务流程可以分为以下四个步骤:a)人脸检测:采集视频帧或静态图,传入算法进行检测,输出人脸数据,用于后续的检测。b)活体检测:在人脸识别过程中判断操作用户是否为真人,有效防御照片、视频、纸张等不同类型的作弊攻击,提高业务安全性,可根据应用场景选择是否接入;c)特征提取:对待比对的图像进行特征提取、人脸库的预提取,用于之后的比对;d)人脸识别:1:1比对主要是判断「你是你」,用于核实身份的真实性;1:N搜索主要识别「你是谁」,用于明确身份的具体所属。虹软产品:ArcFace
12月25日 下午 9:06

深度图像检测算法总结与对比

box,但是对于某些尺寸较大或靠近图像边界的物体,需要多个网格预测的结果通过非极大抑制处理生成。虽然YOLO对于非极大抑制的依赖不及R-CNN和DPM,但非极大抑制确实可以将mAP提高2到3个点。
12月25日 下午 9:06

现在计算机视觉、AI 的发展相比较工业界的需求,是不是供大于求了?

自动驾驶的应用,实际上只能在一个限定范围内进行,比如园区内的摆渡车、固定路线的出租车等。另外对于一些难以获取数据的场合,由于样本覆盖的空间不够大或覆盖的不够密集,模型的精度也难以保证。2.
12月24日 下午 9:00

卷积神经网络压缩方法实战总结

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作者:唐奋链接:https://zhuanlan.zhihu.com/p/359627280本文仅用于学术分享,如有侵权,请联系后台作删文处理导读在实际应用中,很多模型都要被部属在移动端。移动端的存储空间以及算力都有限,无法运行太大的模型。因此模型压缩是一项十分关键的技术。本文介绍了卷积网络压缩的常见方法:低秩近似、剪枝与稀疏约束、参数量化、二值化网络、知识蒸馏和浅层/轻量网络。我们知道,在一定程度上,网络越深,参数越多,模型越复杂,其最终效果越好。神经网络的压缩算法是,旨在将一个庞大而复杂的预训练模型(pre-trained
12月24日 下午 9:00

9 所,最高档!2022 年中国大学评级,正式发布

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源
12月24日 下午 9:00

学术分享丨盘点AI图像合成10年史,那些值得被记住的论文和名字

月谷歌发表论文《DreamBooth:为主题驱动生成微调文本到图像扩散模型》。DreamBooth提供了对扩散模型越来越细粒度的控制。然而,即使没有此类额外的技术干预,使用像
12月22日 下午 9:00

深度解析2023年工业机器人行业的八大趋势

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达UR机器人通过对机器人产业的梳理,结合宏观数据和调研数据信息,本着客观的态度,深度解析2023年工业机器人行业的八大趋势:1、在有限增长的下游行业中,新能源无疑还是最亮眼的行业,2023年新能源行业延续扩张态势,预计相较于2022年增速略有放缓,工业机器人应用需求延续高增长。外部环境不确定性加剧,产业链各环节的马太效应进一步加剧,从资本到市场持续上演“强者恒强,锦上添花”的戏码,结构性的产能过剩加剧。2、全球从供应链、研发到生产的本土化进程进一步加深,机器人产业链矛盾由供给侧开始转向需求侧,机器人价格的“涨”声减弱。3、多关节机器人:中大负载(≥20kg)领域入局者持续增加,各家陆续发布中大负载(≥20kg)产品,超大负载产品(≥200kg)开始得到批量应用。UR机器人依然是其中的领先者。4、协作机器人:价格进一步下探,商用服务领域的入局者增加,头部厂商陆续进入上市倒计时,市场集中度进一步提升。5、SCARA机器人:总体呈现较为明显的结构性分化,一方面是头部厂商延续增长,腰部及以下厂商内卷加剧;另一方面,大负载及高速SCARA产品需求旺盛,低端通用版SCARA产品面临产能过剩,核心原因是下游3C行业有限恢复。6、减速器:受益于中大负载机器人产品的放量,RV减速器需求有望延续增长态势,中大负载RV减速器将变得相对紧俏。
12月22日 下午 9:00

2022中国AI工业质检产业链分析

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达机器视觉为各行业集成应用和服务,其中包括了基于机器视觉发展的AI工业质检行业。Al工业质检技术作为机器视觉的应用层,其主要运用了机器视觉的算法库、光学器件以及图像传感器。Al工业质检主要涉及到产品外观缺陷、尺寸、平整度、距离、校准、焊接、质量、弯曲度等检测。AI工业质检结合机器视觉和神经网络算法,实现从人工设计特征和规则到AI从大量数据中自动学习的突破。目前Al
12月22日 下午 9:00

锂电应用实例 | 海康机器人3D视觉解决方案

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达"随着新能源汽车蓬勃发展,锂电池的生产质量也备受关注,其生产工序复杂多变,从极片制造,到电芯制造,再到电池组装,都需要更高效、更智能的机器视觉检测技术。海康机器人经过长期的硬件技术积累和软件平台的突破,针对锂电行业中后段3D缺陷检测和高精度测量,推出了整套解决方案,为用户提供更优质的选择。"01
12月21日 下午 9:00

【推荐】7个强大实用的Python机器学习库!

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:今日头条-IT技术资源爱好者https://www.toutiao.com/article/7179178014276698662/我们总说“不要重复发明轮子”,python
12月21日 下午 9:00

opencv | 图像直方图的应用场景

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达编辑
12月21日 下午 9:00

机器人运动规划算法研究现状简述

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达摘要:运动规划是移动机器人自主导航系统中的重要模块之一,相关算法研究成果层出不同穷,本文根据规划算法特性,划分为图规划算法、空间采样算法、曲线插值拟合算法和仿生智能算法四个子类,并从移动机器人运动的角度对部分经典研究成果进行分析和总结。01引言移动机器人运动行为是由自主导航系统决定的,自主导航系统主要包含感知、规划、控制与定位四个模块,感知模块是连接机器人与环境的桥梁,其作用是“阅读、提取”环境内容;规划模块是连接感知与控制的桥梁,其作用是“分析、理解”环境内容,根据用户目标及需求输出可执行控制命令,因此感知、规划模块是决定导航系统智能程度的关键。图
12月20日 下午 4:50

结构光 | 格雷码解码方法

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达格雷码是一种特殊的二进制码,在结构光三维视觉中,常常被用于编码。比起我们常见的二进制码,格雷码具有相邻数字的编码只有一位不同的优点,这个优点对于解码而言十分重要,可以减少光解码的错误率。下面我们可以看下如何对结构光用格雷码编码,并如何对编码的结构光进行解码。以5位格雷码为例,5位格雷码可以对32个像素位置进行编码,由之前的文章可以知道,我们在计算结构光三维重建时,只需要对结构光图片的一个方向编码,以常见的列格雷码为例,如图所示是5位列格雷码编码图片集。图中我们对每个像素点进行了格雷码编码,每一张图片都代表了格雷码的某一位,以图片第1列为例,其格雷码编码为00001,则前4张图片中第一列的的格雷码编码的条纹都是黑色,代表0,而最后一张图片第一列的格雷码编码是白色,代表1.格雷码的解码很简单,只要把投影的格雷码结构光再还原回十进制数字,我们就能知道相机中的像素点(uc,vc)对应的是投影图片的哪一列(up)了。想要得到一个好的三维重建结果,主要是对相机捕捉到的结构光进行准确的二值化操作,使得相机图片中每个像素点都能够正确解码。常见的二值化操作有很多,最简单的是设一个全局灰度阈值,对灰度值高于阈值的像素点置1,对灰度值低于阈值的像素点置0。
12月20日 下午 4:50

深度学习在目标视觉检测中的应用进展与展望

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作者:张慧,王坤峰,王飞跃来源:王飞跃科学网博客摘要:目标视觉检测是计算机视觉领域的一个重要问题,在视频监控、自主驾驶、人机交互等方面具有重要的研究意义和应用价值.近年来,深度学习在图像分类研究中取得了突破性进展,也带动着目标视觉检测取得突飞猛进的发展.本文综述了深度学习在目标视觉检测中的应用进展与展望.首先对目标视觉检测的基本流程进行总结,并介绍了目标视觉检测研究常用的公共数据集;然后重点介绍了目前发展迅猛的深度学习方法在目标视觉检测中的最新应用进展;最后讨论了深度学习方法应用于目标视觉检测时存在的困难和挑战,并对今后的发展趋势进行展望.目标视觉检测是计算机视觉领域中一个非常重要的研究问题.随着电子设备的应用在社会生产和人们生活中越来越普遍,
12月20日 下午 4:50

基于图割算法的木材表面缺陷图像分割

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达这是一篇纯干货~快收藏~木材表面缺陷不利于木材的加工利用,降低木制品的品质,影响生产企业的经济效益,因此木材表面缺陷的图像检测技术越来越受重视。而采用图像处理方法进行木材表面缺陷检测,是实现木材表面缺陷自动检测、提高企业生产效率的必由之路。鉴于图割方法的明显优势,白雪冰及其团队采用Graph
12月18日 下午 9:00

云端机器学习:12 个必备功能

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达本文由半导体产业纵横(ID:ICVIEWS)编译自computerwoche创建有效的机器学习和深度学习模型需要具备的功能有哪些?创建有效的机器和深度学习模型不仅需要大量数据。此外,需要有一种方法来清理这些数据并将其用于特征工程。模型还必须在合理的时间内根据数据进行训练。然后需要交付它们,监测模型漂移,并在必要时重新训练。大型(以及一些较小的)云提供商已做出重大努力来扩展其机器学习(ML)
12月18日 下午 9:00

3D测量| 主动模式投影提高AOI三维测量精度

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达3D相移模式投影系统与高分辨率、远心镜头和大画幅相机相结合,实现高精度3D测量。非接触式3D测量可以通过各种技术实现,最常用的方法包括:(1)激光轮廓测量法:用高功率激光器和线阵或面阵传感器实现;(2)立体相机法:用两个面阵传感器和主动模式投影(使用一个面阵相机和一个主动模式投影仪)实现(见图1)。在单线激光器/相机组合中,当物体或扫描仪移动时,激光器/相机组合捕获单一激光线反射;与之不同的是,模式投影方法可以用于在单一无运动扫描中,捕获一个完整的图像。这也是主动模式投影在机器视觉市场中越来越流行的原因之一。
12月18日 下午 9:00

机器视觉系统设计过程及关键技术

图像处理获得的信息最终用于对对象(被测物体、环境)的判断,并形成对应的控制指令,发送给相应的机构。如摄取的零件图像中,计算零件的尺寸是否与标准一致,不一致则发出报警,做出标记或进行剔除。
12月17日 下午 9:30

2022 Top10自监督学习模型发布!美中两国8项成果霸榜

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达【导读】2022年十大自监督学习模型出炉!中国清华大学、北京大学和香港中文大学(深圳)项目入选,荣登亚洲第一,世界第二。微软公司成为上榜最多的公司,共有三项成果。自监督学习使计算机能够观察世界,通过学习图像、语音或文本的结构来了解世界,这推动了人工智能最近的许多重大进展。尽管世界科研人员在该领域投入大量精力,但目前自我监督学习算法从图像、语音、文本和其他模式中学习的方式存在很大差异。因此,人工智能论坛Analytics
12月17日 下午 9:30

多模态数据的行为识别综述

PointNet并没有充分考虑时间信息,而GeometryMotion-Net将每个点云序列表示为一个虚拟整体几何点云和多个虚拟运动点云来明确时间信息。两项改进措施使得识别准确率有了较大提升。04
12月17日 下午 9:30

【激光雷达】什么是线数?激光雷达的线数是越多越好吗?

线激光雷达形成的点云图明显更清晰,分辨率远远超过低线数激光雷达。虽然线数越多,效果越好。但如果在一个激光雷达内部垂直堆积
12月16日 下午 2:06

机器人视觉处理四阶段策略

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达机器人视觉技术的演变第一代机器人,如第一批消费级机器人吸尘器,相对来说比较简单,自我导航和执行任务的能力有限。这些机器人通过红外发射器等探测障碍物,使用震动传感器检测碰撞。但是,这些都已成为历史。随着人工智能(AI)、机器学习(ML)和计算机视觉(CV)等融合技术的进步,现在,机器人可以看到周围的环境,分析动态场景或变化的条件,并做出决定。而硬件创新进一步推动了这些功能的完善,比如越来越强大的移动平台、更复杂的传感器和高分辨率图像捕获。有了这些资源,开发者可以专注于开发更少依赖外部硬件(如GPS)的更自主的智能机器人,机器人的工作环境也得到大大的拓展(如,在室内、在弱光下等),并且可以处理不断变化的环境和移动物体。为零售、汽车、农业、工业物联网(IoT)、健康和企业等领域的新型机器人应用铺平了道路。为实现上述目标,机器人开发者应努力克服机器人视觉三大挑战:•
12月16日 下午 2:06

有史以来最牛逼的一张程序员职业路线图,分享给你

CTO:史上最强的技术流?不一定。不过有一点高度是肯定的:会当凌绝顶,一览众山小。正统的CTO专门研究各种武技,寻求能在未来的江湖中克敌制胜的秘辛。国内江湖乱象纷呈,很多CTO其实在打杂做管理。●
12月16日 下午 2:06

【福利】免费申请试用开发板指南来了!超50多种板卡任你选择!

各位粉丝朋友们好,2022年即将迎来尾声,今年发生了很多事情,在前段时间各地也陆续解码放开,不知道今年的你过得还好吗?无论如何,生活还得继续!感谢大家关注,现在我来送一波福利~和大家分享一个板卡免费申请试用的途径,里面包含了多款ARM、FPGA、DSP相关的开发板/核心板,而且应用领域也是有涉及机器视觉领域!我看了下,性能功耗方面确实都很不错,不仅可以免费申请,还有机会拿丰厚礼品!欢迎大家踊跃报名参加,祝锦鲤附身好运!下面选取5款热门板卡展示+申请具体流程,大家感兴趣的可以看下*开发板展示-资源图解图1
12月16日 下午 2:06

魔方最快速识别六面颜色

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达前言我们报了机械手解魔方的项目!其中的方案之一是用摄像头采集魔方的六面信息!为了最快的采集信息,决定使用两个摄像头顶角照射,一个摄像头读取三面信息,这样两个摄像头一次直接读取完!其中最快的方法就是两个摄像头,顶角摆放,采集六面信息!这其中,我有两种方案!1、直接在倾斜面上颜色识别采集信息,在进行面矩阵转换;2、将倾斜面矫正回来,在进行颜色识别!在两种的综合尝试下,我们采用第二种!我用的开发环境是
12月10日 下午 10:00

计算机视觉中的双目立体视觉和体积度量

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作:Yauheni
12月10日 下午 10:00

基于卷积神经网络的垃圾图像分类算法

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达垃圾分类作为资源回收利用的重要环节之一,
12月10日 下午 10:00

线扫激光算法原理

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达一:线扫激光算法原理激光器发出的激光束经准直聚焦后垂直入射到物体表面上,表面的散射光由接收透镜成像于探测器的阵列上。光敏面于接收透镜的光轴垂直。如图:当被测物体表面移动x,反应到光敏面上像点位移为x’。a为接收透镜到物体的距离(物距),b为接收后主面到成像面中心的距离(一般取焦距f),θ为激光束光轴与接收透镜之间的夹角。D为激光光束轴到透镜中心的距离。接收透镜的焦距为f,其余的参数如下图:
12月9日 下午 10:13

分辨率这个镜头参数,你真的理解了吗?

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达在早期的名词解释中,我们有过一篇介绍分辨率的文章,今天我将结合一些客户的疑问,从其他角度再聊一下这个镜头参数。//分辨率的定义//能被分辨开来的两个物点之间的最小距离,称为镜头的物方分辨率,记为Resolution(物),单位为µm。可以看到,这只是单纯镜头本身的参数,只反映镜头的解析能力,而和相机多少像素无关!它直接反映了,一个理想物点经过镜头成像后,会模糊成多大一个像斑,这个数字当然越小越好。【*此段小字不考,懒癌跳过:镜头分辨率和本身光圈大小(或者NA)有关。镜头成像本身就是一个光学衍射的过程,当然孔越小(F数越大),衍射斑越重,从而造成分辨率下降,如下图——另外,即使开孔很大,而存在未矫正的像差,同样会影响成像清晰,所以有些FA镜头在最大光圈未必得到最清晰的图像。//与“检测/测量精度”的区别//客户通常要求的“精度”,实际上是指的一个像素能够代表物方多少大小,这时候只需要用相机像素尺寸除以镜头的倍率就可以了(精度=像素大小÷光学放大倍率,或者用视野÷像素数量,结果是一样的)。比如,你用了5MP的相机,像素为2.2µm,搭配了0.5x的镜头,此时精度即2.2µm÷0.5=4.4µm,测量一根25µm的线宽就需要5~6个像素,画面每跳动一个像素,测量结果就变化4.4µm。
12月9日 下午 10:13

摄像相机标定到底是啥?标定完成得到的参数有什么用?

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达今天说一个比较让人头疼的话题-----摄像机标定为什么说令人头疼呢?因为解释起来与会花费很多的时间。1.先介绍下摄像机成像原理一个摄像机可以大致分为三个部分:镜头
12月8日 上午 11:31

如何在具有挑战性的照明条件下获取更好的成像方法

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达可能很难针对特定的应用选择合适的相机。通常考虑的常见相机规格包括分辨率和帧率。然而,照明可能是一个更重要的外部因素。在照明可能不一致的情况下,动态范围和增益是成功捕获图像的关键因素。本文重点介绍了高转换增益(HCG)和低转换增益(LCG)相机功能如何在苛刻的照明条件下发挥作用,以及通常会出现这些苛刻情形的成像应用示例。照明不一致的挑战设置视觉系统时,照明至关重要。如果光线很暗,照明不一致可能会导致图像数据变得难以使用的问题。增加信号的常见解决方案是增加相机的增益。但是,如此一来噪声会增加,从而降低图像质量。在其他情况下,过多的光线可能会导致图像曝光过度。由于相机像素无法捕获所有光线,因此图像数据也会减少,从而有效消除传感器过度曝光的区域。动态范围的重要性高动态范围能够使视觉系统捕获更多细节。这是因为图像的动态范围是指图像数据在不损失清晰度的情况下的可以有最暗和最亮影调。在到达传感器的光线较暗的系统中,捕获的图像可能无法满足指定应用的需求。如果视觉系统光线过多,也会影响图像质量。在这种情况下,图像会曝光过度,明亮区域会导致图像褪色。这种情况会阻碍图像软件在车辆通过收费站时分析重要数据,例如车辆上的车牌字符。当车辆经过收费站时,捕获车牌信息。如果在光线不足的情况下拍摄图像,则图像可能会显得很暗。这是因为当传感器没有捕捉到足够的光线时,光线不足的区域会显示为黑色。这些较暗的图像曝光不足,因此可能无法产生图像数据来识别感兴趣的对象。增加相机的增益可以提高传感器的整体灵敏度,如果在黑暗环境中成像,这一点至关重要。然而,增加增益的缺点是会在图像中引入额外的噪声。这意味着需要平衡视觉系统将使用的增益量与可能同时引入的噪声。这种平衡关系称为信噪比(SNR)。高转换增益与大多数传感器支持的传统增益不同,Teledyne
12月8日 上午 11:31

基于Open3D的Lidar-Segment

requirements-torch-cuda.txt这里作者选择的是Pytorch,因为作者对Pytorch比较熟悉,然后使用下面命令测试Open3d是否安装成功#
12月8日 上午 11:31

AI赋能智能交通“车路协同”场景,实现“聪明的车、智慧的路”!

车路协同,即利用5G等车载网络传感器与高精度地图的紧密配合获知路况,全方位实时车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成安全、高效和环保的道路交通系统,车路协同已经成为智慧交通规划中的重要组成部分。图1:车路协同与传统的单车端系统或者单路侧系统相比,车路协同系统更加侧重路端、云端与车辆的交互,是囊括车端感应、路端感应、通信技术与云控技术的整体解决方案。车路协同主要包括四大关键技术:智能车载技术、智能路侧技术、通信技术、云控技术。智能车载指安装在车辆终端,是拓宽驾驶员视野、增加驾驶员对行车环境和车辆运行状态的感知、加强行车安全的单元;智能路侧即采集道路状况、交通状况,通过通讯网络将信息传递至指挥中心或路侧处理单元处理,通过网络传递至有信息请求的车载端;通信技术指车载端与路侧端之间的通信,用于车与路信息采集、路况信息采集,以及车与车之间的通信中继;云控技术即具备数据存储、计算、决策的云端技术。要全面实现车路协同,人工智能技术在其中发挥关键作用。通过车路云图全面打通车路协同,如下图中所示,人工智能技术在车路协同中的应用场景及飞桨在车路协同3D感知中的应用效果。图2:车路云图四维一体全面打通车路协同车路协同一些典型应用场景及效果如下图所示:图3:车路协同典型应用场景图4:北京亦庄车路协同3D感知在车路协同领域,百度率先提出车路协同方案,是车路协同方案的坚定探索者和推动者。在2018年年底正式开源Apollo车路协同技术方案,向业界开放车路协同领域的技术和服务。通过在平台化、生态化、商业化等各个领域深耕实践,经历4年发展历程,百度积累了涵盖车、路、云、图一体化的解决方案。百度始终保持对于技术和方案全面开放的态度以及对行业的生态促进的理念,在百度飞桨深度学习开源开放平台上开源开放了众多技术能力,从而支持企业车路协同场景的开发和构建,主旨在于帮助企业建设多元化和规范化的智能道路基础设施,降低开发者开发成本,丰富车路协同产业生态,为行业的健康发展贡献百度力量。如下图所示,飞桨全面支持车路协同场景构建全景和基于飞桨的百度Apollo车路协同开放平台及长沙高新区智慧交通车路协同应用展示。图5:百度飞桨全面支持车路协同场景构建图6:基于飞桨的百度Apollo车路协同开放平台图7:长沙高新区智慧交通-车路协同赋能智能信控场景应用场景一视觉3D道路障碍物检测3D道路障碍物检测旨在定位出车辆及道路障碍物在三维空间中的位置、大小和方向,并识别出物体的类别属性。作为车路协同和自动驾驶感知系统中的重要模块,3D障碍物检测任务存在设计复杂、开发繁琐、精度和速度要求高等痛点和难点问题。飞桨与Apollo联合打造的Paddle3D深度学习3D感知套件聚合图像的单目、BEV检测模型、基于点云的稀疏三维卷积等多种前沿和特色三维目标检测模型,灵活设计开发框架,涵盖精度调优策略、极致优化模型的性能,助力开发者便捷地完成障碍物检测从训练到部署的全流程应用。场景二车牌识别车牌识别广泛应用于车辆出入场识别和车路协同车辆识别等场景中,在实际的使用过程中,存在图像质量参差不齐、角度倾斜、光照不足、车牌在图像中尺寸差异大和使用设备算力有限等问题和难点。针对上述难点问题,通过使用飞桨PaddleOCR开发套件提供的自研PP系列模型PP-OCRv3,结合飞桨深度学习模型压缩工具库PaddleSlim完成车牌识别模型的训练和量化,在CCPD新能源数据集达到99%的检测精度和94%的识别精度,模型大小为12.8M(检测2.5M+识别10.3M),量化后模型体积进一步压缩到5.8M(检测1M+识别4.8M),推理速度提升25%。场景三众包建图方案保持地图高鲜度众包建图旨在利用大规模的量产车辆对高精地图进行更新,实现低成本高效的地图更新工作。众包建图对于环境的感知通常采用全景分割来实现。在实际业务中,依赖人工来完成全景分割模型训练所需数据标注,时间及标注成本高昂。针对以上问题,采用飞桨PaddleSeg交互式分割技术,通过少量交互信息便能高效完成复杂道路场景分割标注,有效降低标注成本,提升标注精度,极大加速全景分割模型训练并提升最终模型效果。如下图所示地图实景交互式分割标注过程及最终标注结果展示。直播预告本期《飞桨产业实践范例大课-智能交通》公开课,百度飞桨联合百度智能交通、百度自动驾驶、百度视觉技术部、百度智能云、百度机器人与自动驾驶实验室等团队重磅打造,覆盖车路协同、交通治理、自动驾驶等重点领域。其中车路协同场景覆盖车载智能感知、路侧车辆识别、高精地图制作及更新等关键场景。欢迎大家扫码报名获取直播链接,加入交流群与行业精英深度探讨交通行业的智能化升级和车路协同话题。
12月8日 上午 11:31

​语义分割网络入门

使用全卷积神经网络。(全卷积神经网络就是卷积取代了全连接层,全连接层必须固定图像大小而卷积不用,所以这个策略使得,你可以输入任意尺寸的图片,而且输出也是图片,所以这是一个端到端的网络。)
12月7日 下午 12:06

机器视觉检测图像处理相关知识讲解

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达图像处理具有以二维平面拍摄目标物的特长。因此可以广泛应用于自动检查,以代替目视检测及目视检查。下面对构成图像处理基础的CCD(像素)和图像处理的基础知识进行讲解。关于摄像元件
12月7日 下午 12:06

CMU最新《多模态机器学习的基础和最新趋势》综述

对齐:我们如何识别样式元素之间的连接和交互?模态之间的对齐具有挑战性,涉及(1)识别模态元素之间的连接,(2)上下文表示学习以捕获模态连接和交互,以及(3)处理具有歧义分割的模态输入。
12月7日 下午 12:06

BERT大火却不懂Transformer?

Transformer』、『TimeSformer』等等.Transformer为什么这么有实力?因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络上的发展也推动了下游任务的发展,Swin
12月7日 下午 12:06

写给开发者的 10 条机器学习建议

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达本文转自:视学算法有时候,作为一个数据科学家,我们常常忘记了初心。我们首先是一个开发者,然后才是研究人员,最后才可能是数学家。我们的首要职责是快速找到无
12月5日 下午 10:00

汽车激光雷达及其工作原理

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源丨硬件大课堂什么是激光雷达(LiDAR)?激光雷达将雷达测距功能与摄像头角分辨率相结合,用来提供准确的深度感知传感,从而完成图像(图1)。图1:摄像头、雷达和激光雷达是汽车自动驾驶的三种首选技术。(图片来源:ADI)视觉部分代表摄像头或驾驶员的可见力、物体分类和横向分辨率。黑暗以及雪、灰尘或雨等天气情况会削弱这些能力。雷达部分代表了射频信号的返回。这种信号不受天气状况和黑暗的影响,同时还可测量距离。激光雷达部分可通过提供进一步的对象分类、横向分辨率、测距和黑暗穿透来完成传感图片。激光雷达如何工作?激光雷达系统的基本要素包括方波发射系统、目标环境,以及用来解释环境中外部元素距离的光接收器系统。激光雷达传感方法是采用脉冲激光形式的光,通过分析返回信号的飞行时间(ToF)来测量范围的(图2)。图2:每个激光雷达发射单元都有一个三角形“视场”。(图片来源:Bonnie
12月5日 下午 10:00

盘点2021-2022年出现的CV神经网络模型

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:古月居在transformer席卷CV领域之后,掀起了一股新型神经网络模型的涌现热潮。短短一两年时间,研究者们从不同结构领域冲击着SOTA,有ViT的,有CNN的,甚至还有纯MLP的。其中,不乏有一些启发性和奠基性的模型出现,隐约感觉到这两年是基础模型的爆发年。ViT引领了继2012年AlexNet和2015年ResNet之后的第三个基础模型爆发潮。于是,木盏以此博文做一个不是很完全的综述,整理给大家浏览,说不定可以遇到有帮助的trick。此外,我还有一些在ImageNet上的复现经验得出一些结论,附带在对每个模型的评论上。这篇文章一共涵盖9个优秀模型,模型出现的大致时间基本可以在arxiv链接中看出。其中3个来自MSRA、3个来自FAIR:1.
12月2日 下午 9:30

第一视角:深度学习框架这几年

API层过度复杂。后来方案被采纳了一半,大佬们希望能够更多的复用Keras接口。其实没有完美的API,只有最适合某类人群的API。有个小插曲,当时Keras的作者François也在Google
12月2日 下午 9:30

JPEG图像压缩原理技术详解

DCT拆开写,更清楚的显示任意信号和对应的标准余弦信号组合关系:接下来,我们从图像中,任意扣取一个8x8的区域进行分析,此时,一维的DCT变换也随之拓展到二维:DCT
12月2日 下午 9:30

点线联合优化估计相机姿态(IROS 2022)

3D线图为了验证线优化和点线联合优化导致的定位精度的提高,在具有相同初始姿态的不同成本函数下对上述两个数据集进行了实验。结果见表二本文仅做学术分享,如有侵权,请联系删文。—THE
12月1日 下午 9:31

深入浅出了解OCR识别票据原理

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达译者:Mr.Geek本文翻译自dzone
12月1日 下午 9:31

三维点云配准的相关知识学习技巧(粗配准&精配准)

cloud进行比较,只要两个点云中存在距离小于一定阈值(这就是题主所说的ICP中的一个参数),我们就认为这两个点就是对应点。这也是"最邻近点"这个说法的来源。3)
12月1日 下午 9:31

机器人自己造自己,像搭积木一样轻松 | MIT

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:量子位What,机器人都已经进化到能自己造自己了?!麻省理工(MIT)的研究人员脑洞大开,于是有了这番情景:机器人1号忙前忙后,一边挑选零件,一边组装着什么东西。不一会儿后,一模一样的机器人2号就地诞生!还没完——机器人2号刚来到这个世界,立刻就能和1号那样身手敏捷,然后它还给自己“戴上”两个饰品,哦不,配件。Emm…看来现在机器人“套娃”真的照进现实了。MIT的研究者指出:这种机器人除了能克隆自己外,还能分层搭建出更大的机器人。按此思路,以后造大型建筑或大型机械设备时,或许可以让小模块像搭积木似的一步步构造,不用再在旁边弄个巨型机床之类的了。这样能大大提高建造效率!相关研究论文已登上了Nature子刊Communications
11月30日 下午 9:34

基于多模态自适应熵驱动融合的恶劣天气自动驾驶视觉感知技术研究

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达基于多模态自适应熵驱动融合的恶劣天气自动驾驶视觉感知技术研究01背景作为计算机视觉中的一项基础任务,目标检测受到了广泛的关注。在恶劣的天气下,尤其是在雾天环境下,大气中存在很多浑浊介质(如颗粒、水滴等),传统相机可见光难以穿透颗粒介质,因此恶劣天气下的数据非常罕见,现有的检测架构依赖于未失真的传感器流,而恶劣天气下传感器会产生非对称的失真,使得户外场景图像出现退化和降质,清晰度低和对比度低,细节特征模糊不清等特点,对于在高质量图像下训练的目标检测模型,往往无法准确的定位目标,是当前目标检测任务中的一大挑战,同时也是当前如何在复杂天气环境下进行视觉自主导航的一大挑战。为解决这个问题,Bijelic提出了一个新的多模式数据集,该数据集是在北欧10,000
11月30日 下午 9:34

基于深度学习的复杂背景下目标检测

GoogleNet[24]、VGGNet[25]、DarkNet-53[7]和ResNet-101[26]的层数分别为22层、19层、53层和101层,
11月30日 下午 9:34

实践干货 | 自动化视觉跟踪

GPIO,那么接下来我们升级一下云台机制。获取更多细节,请查看我的教程:Pan-Tilt-Multi-Servo-Control伺服(servo:一种微型电子与机械产品的合体转置)需要连接额外的
11月29日 上午 7:44