新机器视觉

其他

盘点4个机器视觉和机器学习的.Net开源库

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达今天一起来盘点下4个机器视觉和机器学习的.Net开源库,有人脸识别、OCR、图像处理库。1、人脸识别认证离线库项目简介ViewFaceCore是一个基于C#和.NET
2023年7月24日
其他

CV不存在了?SAM分割模型是什么?

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达SAM是一类处理图像分割任务的通用模型。与以往只能处理某种特定类型图片的图像分割模型不同,SAM可以处理所有类型的图像。相比于以往的图像分割模型,SAM可以识别各种输入提示,确定图像中需要分割的内容,还可以灵活集成到虚拟现实/增强现实等其他系统中,且目前对于一些它未见过或相对模糊的场景,也能实现较好的图像分割效果。最近一段时间,人工智能通用模型领域频现“爆款”。4月,Meta公司发布了一款名为“Segment
2023年5月19日
其他

TPAMI 2023 | Food2K:大规模食品图像识别

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达美团基础研发平台视觉智能部与中科院计算所展开科研课题合作,共同构建大规模数据集Food2K,并提出渐进式区域增强网络用于食品图像识别,相关研究成果已发表于T-PAMI
2023年5月17日
其他

AI算法说-图像分割

CRFs-https://arxiv.org/abs/1606.00915简介:本文提出了一种语义图像分割方法DeepLab,该方法通过引入扩张卷积和CRF的全连接层,能够提高分割结果的准确性。5.
2023年5月17日
其他

强到离谱!几乎涵盖了图神经网络所有操作

前几年神经网络很火,相信大家对神经网络都有一定的了解。而图神经网络是直接在图上进行计算,整个计算的过程,沿着图的结构进行,这样处理的好处是能够很好的保留图的结构信息。而能够对结构信息进行学习,正是图神经网络的能力所在。下面我们就来看看图神经网络为什么强大?图神经网络的应用场景自然非常多样。笔者在这里选择一部分应用场景为大家做简要的介绍,更多的还是期待我们共同发现和探索。1.
2023年5月17日
其他

算法工程师如何优雅地使用ChatGPT?

环境中获得和使用。https://learn.deeplearning.ai/chatgpt-prompt-eng方法如下:有了api_key后,可以通过如下代码自定义jupyter
2023年5月16日
其他

SLAM基础环境配置

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达转自知乎作者:佳浩原文链接:https://zhuanlan.zhihu.com/p/385255026如今,各行各业都在向着人工智能,自动化,网联化方向发展,而SLAM(simultaneous
2023年5月15日
其他

ISP(图像信号处理)充满了科技与狠活儿(褒义)

d点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达近月来,中国手机与苹果的“诸神之战”让大家在OPPO的“马里亚纳”、华为的“原色双影像单元”、小米x徕卡联合研发、苹果的“灵动岛”和“4800万像素广角镜头+1200
2023年3月15日
其他

点云压缩研究进展与趋势

点云压缩方法分类点云压缩任务按照不同的标准可以将方法划分成不同的类型,主要有以下标准:(1)根据还原质量分类;(2)根据处理方法分类;(3)根据空间维度分类;(4)根据信息类型分类。表
2023年3月15日
其他

一种基于计算机视觉和深度学习的番茄外部缺陷检测方法

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达水果外部缺陷会造成水果卖相不佳,营养价值降低或已被污染,因此售价往往较低。工业分拣和分级机器可利用计算机视觉(CV)根据颜色、大小和质地等不同标准来区分食品,但当前所使用的传统计算机视觉系统(TCVS)缺乏能够检测多种外部缺陷的算法。因此,需要一种更好的检测算法来对水果进行分级,以确保将最好的水果送入消费市场。巴西坎皮纳斯州立大学的学者们在《BIOSYSTEMS
2023年3月15日
其他

CVPR 2023|大脑视觉信号被Stable Diffusion复现图像!“人类的谋略和谎言不存在了”

Takagi,他主要从事计算神经科学和人工智能的交叉研究。最近,他同时在牛津大学人脑活动中心和东京大学心理学系利用机器学习技术,来研究复杂决策任务中的动态计算。另一位是大阪大学教授Shinji
2023年3月15日
其他

红外图像处理算法介绍

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:Hack电子大纲:1.红外图像增强研究背景和意义2.红外图像增强经典算法1-红外图像增强研究背景和意义1.1研究背景红外图像是红外技术与成像技术结合的产物。人类感知只限于电磁波谱的可见光波段,对于全部电磁波谱上其它不可见光,如γ射线、X射线、紫外线、红外线、微波等,人类的视觉则无法感知。然而科学技术的发展使得成像技术与设备可以覆盖几乎全部电磁波谱,从γ射线到无线电波,将人类不可见的射线转化为可见的图像,这些图像涉及我们人类生活的许多领域,发挥着日益重要的作用。比如,红外成像技术可以用于测温、监控着火、军事、检测建筑材料、医学、电力行业等。1.2研究意义但由于红外图像的成像机理以及红外成像系统自身的原因,红外图像与可见光图像相比,大多有图像对比度低、图像较模糊、信噪比低等特点。这对后续的特征提取、识别或跟踪等极为不利,因此抑制噪声,提高图像信噪比,以及调整红外图像对比度,增强红外图像边沿及线条等操作是必不可少的。所以,需要对图像进行适当的处理,因此红外图像增强是非常有必要的。图像增强技术的主要目的是处理一幅给定的图像使它的结果对某种特定应用来说比原始。图像更合用。通过增强,可以改善红外图像的质量,为后续对红外图像的操作提供准备。1.3红外图像的缺点(1)红外热图像表征景物的温度分布,是灰度图像,没有彩色或阴影,分辨率低、分辨潜力差;(2)
2023年3月14日
其他

一文详解机器人控制系统

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:机器人网机器人的结构采用空间开链接结构,其各个关节的运动是独立的,为了实现末端点的运动轨迹,需要多关节的运动协调。所以,其控制系统要比普通的控制系统复杂得多,具有以下几个特点:1、机器人的控制与结构运动学及动力学密切相关。机器人手爪的状态可以在各种坐标下进行描述,根据需要选择不同的参考坐标系并做适当的坐标变换;2、经常要求解运动的正问题和逆问题,除此之外还要考虑惯性力、外力(包括重力)、哥氏力、向心力的影响。3、一个简单的机器人也至少有3~5个自由度,比较复杂的机器人有十几个,甚至几十个自由度.每个自由度一般包含一个伺服机构,它们必须协调起来,组成一个多变量控制系统。4、把多个独立的伺服系统有机地协调起来,使其按照人的意志行动,甚至赋予机器人一定的智能,这个任务只能是由计算机来完成。因此,机器人控制系统必须是一个计算机系统。5、描述机器人状态和运动的数学模型是一个非线性模型,随着状态的不同和外力的变化,其参数也在变化,各变量之间还存在耦合。6、机器人的运动可以通过不同的方式和路径来完成,因此,存在一个“最优”的问题。较高级的机器人可以用人工智能的方法,用计算机建立起庞大的信息库,借助信息库进行控制、决策、管理和操作。传统的自动机械是以自身的动作未重点,而工业机器人的控制系统更着重本体与操作对象的互相关系。所以,机器人控制系统是一个与运动学和动力学原理密切相关的、有耦合的、非线性的多变量控制系统。随着实际工作情况的不同,可以有各种不同的控制方式,从简单的编程自动化、微处理机控制到小型计算机控制等等。机器人的控制系统的特性和基本要求要对机器人实施良好的控制,了解被控的特性是很重要的,从我们了解到的机器人动力学来说,具有以下特性:1、机器人本质是一个非线性系统。引起机器人非线性的因素很多,结构方面、传动件、驱动元件等都会引起系统的非线性。2、各关节间具有耦合的作用,表现为某一个关节的运动。会对其他关节产生动力效应,使得每一个关节都要承受其他关节运动所产生的扰动。3、是一个时变系统,动力学参数随着关节运动位置的变化而变化。从使用的角度来看,机器人是一种特殊的自动化设备,对它的控制有如下特点和要求:1、多轴运动协调控制,以产生要求的工作轨迹。因为机器人的手部运动是所有关节运动的合成运动,要使手部按照设定的规律运动,就必须很好地控制各关节协调动作,包括运动轨迹,动作时序等多方面地协调。2、较高的位置精度,很大的调速范围3、系统的静差率要小4、各关节的速度误差系数应尽量一致5、位置无超调,动态响应尽量快6、需采用加(减)速控制7、从操作的角度来看,要求控制系统具有良好的人机界面,尽量降低对操作者的要求8、从系统成本来看,要求尽可能地降低系统的硬件成本,更多地采用软件伺服的方法来完善控制系统的性能机器人的控制方式工业机器人控制方式的分类没有统一的标准:A、机器人动作控制方式a、机器人运动控制方式(1.机器人位置控制方式:定位控制方式—固定位置方式、多点位置方式、伺服控制方式;路径控制方式:连续轨迹控制、点到点控制)(2.机器人速度控制方式:速度控制方式—固定速度控制,可变速度控制;加速度控制方式—固定加速度控制方式,可变加速度控制)(3.机器人力控制方式)b、机器人动作顺序控制方式B.机器人示教控制方式(1.用实际机器人示教:直接示教法——功率级脱离示教,伺服级接通示教;遥控示教法——示教盒示教法、操纵杆示教法、主从方式示教)(2.不用机器人示教:间接示教法——模型机器人示数、专用工具示数;离线示教法——数值输入示数、图形示数、软件语言示教)机器人控制系统结构和工作原理一个工业机器人系统通常分为机构本体和控制系统两大部分。构成机器人控制系统的要素主要有计算机硬件系统及操作控制软件、输入/输出设备及装置、驱动器系统、传感器系统。工业机器人的控制系统是机器人的重要组成部分,以完成待定的工作任务,基本功能有:1、记忆功能2、示教功能3、与外围设备联系功能4、坐标设置功能5、人机接口6、传感器接口7、位置伺服功能8、故障诊断安全保护功能当然,还有很多关于机器人控制的知识,比如:机器人单关节位置伺服控制、机器人力控制、机器人的智能控制等等。声明:部分内容来源于网络,仅供读者学习、交流之目的。文章版权归原作者所有。如有不妥,请联系删除。—THE
2023年3月14日
其他

双目视觉之相机标定

tof目录一、三大坐标系1、图像坐标系到像素坐标系2、世界坐标系到摄像机坐标系3、摄像机坐标系到图像坐标系4、总结
2023年3月14日
其他

不懂工业通信网络技术控制,都不好说是PLC自动化工程师...

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达强大的工业通信网络与信息技术的彻底结合改变了传统的信息管理方式,建企业的生产管理带入到一个全新的境界。一般而言,企业的通信网络可划分为3级,及企业级、车间级和现场级。在应用较多的西门子工业通信网络解决方案的范畴内使用了许多通信技术。在通信、组态、编程中,除了上图中提到的工业以太网和
2023年3月13日
其他

梯度下降是门手艺活

2这个函数f(x)就是大家在中学喜闻乐见的,大家一眼就可以看出,最小值是x=1,这是函数值为0。为了防止大家对这个函数没有感觉(真不应该没感觉啊……)我们首先把图画出来看一下:import
2023年3月13日
其他

​用OpenCV和深度学习进行年龄识别

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达在本教程中,您将学习如何使用OpenCV,深度学习和Python执行年龄的自动识别/预测。学完本教程后,您将能够以相当高的精确度去自动预测静态图像文件和实时视频中的人物年龄。要了解如何使用OpenCV和深度学习进行年龄识别,请继续阅读!用OpenCV和深度学习进行年龄识别在本教程的第一部分中,您将学习年龄识别,这包括从图片或视频中自动预测人的年龄需要的步骤(以及为什么应该将年龄识别当做分类问题而不是回归问题)。下面,我们将介绍这个基于深度学习的年龄识别模型,然后学习如何使用这两种模型:1.静态图像中的年龄识别2.实时视频中的年龄识别然后,我们将分析我们所做的年龄预测工作的结果。什么是年龄识别?图1:在本教程中,我们使用OpenCV和预先训练的深度学习模型来预测给定人脸的年龄。(图片来源:https://www.researchgate.net/publication/336955775_Age_Estimation_in_Make-up_Cosmetics_Using_Color_and_Depth_Images)。年龄识别是仅用人脸的照片去自动识别其年龄的过程通常,您会看到年龄识别可分为两个阶段进行实现:1.阶段1:检测输入图像/视频中的人脸2.阶段2:提取人的面部(感兴趣区域,ROI),并通过年龄检测器的算法去预测人物的年龄对于阶段1,能够为图片中的人脸生成边框的人脸检测器都是可用的,这些检测器包括但不限于Haar
2023年3月13日
其他

3D视觉感知底层技术与产业应用

FPPN噪声是与像素点相关的固定偏置噪声,因此,可以在某一位置上计算固定偏置的相位。然后在计算深度时加上这一个固定的偏置相位即可。温漂标定:
2023年2月23日
其他

FANUC 机器人码垛编程详细讲解,要收藏哦~

E:包括码垛E(单路径模式)和码垛EX(多路径模式)。适用于复杂的堆叠模式(工件姿势改变,堆叠时的底面形状不是四角形)。3.
2023年2月23日
其他

看完这篇我就不信还有人不懂卷积神经网络!

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:稀土掘金作者:Codeman在深度学习大🔥的当下,我知道介绍卷积神经网络的文章已经在全网泛滥,但我还是想要写出一点和别人不一样的东西,尽管要讲的知识翻来覆去还是那么一些,但我想尽可能做到极其通俗易懂,只要稍微有点计算机和线性代数基础的同学都能看懂。01什么是神经网络?在介绍卷积神经网络之前,我们先回顾一下神经网络的基本知识📖。就目前而言,神经网络是深度学习算法的核心,我们所熟知的很多深度学习算法的背后其实都是神经网络。神经网络由节点层组成,通常包含一个输入层、一个或多个隐藏层和一个输出层,我们所说的几层神经网络通常指的是隐藏层的个数,因为输入层和输出层通常是固定的。节点之间相互连接并具有相关的权重和阈值。如果节点的输出高于指定的阈值,则激活该节点并将数据发送到网络的下一层。否则,没有数据被传递到网络的下一层。关于节点激活的过程有没有觉得非常相似?没错,这其实就是生物的神经元产生神经冲动的过程的模拟。神经网络类型多样,适用于不同的应用场景。例如,循环神经网络(RNN)通常用于自然语言处理和语音识别,而卷积神经网络(ConvNets
2023年2月23日
其他

基于FPGA的图像处理

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达图像处理系统设计注意点:1.将算法开发和FPGA实现分离用软件的图像处理环境可以使用大批量的图像样本进行测试及调试算法,再将算法映射到硬件上,这样大大节省了硬件调试周期。2.算法的精度图像处理的算法中,大部分需要采用浮点数运算,而浮点数运算再FPGA中是非常不划算的,因此需要转换成定点数计算,此时会设计到浮点运算转定点运算时精度下降的问题。3.软件和硬件的合理划分这里的软件是指DSP,CPU,硬件是指FPGA;一般
2023年2月23日
其他

没你想的那么难 | 一文读懂图像分割

在这种结构中,联合金字塔上采样(JPU)模块被用来代替扩展卷积,因为它们消耗大量的内存和时间。它的核心是一个全连接网络,同时使用JPU进行上采样。JPU将低分辨率特征图提升为高分辨率特征图。
2023年2月21日
其他

解密什么是景深?一次就跟你说清楚!

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:computar镜头PART.1景深的定义在镜头前方(焦点的前、后)有一段一定长度的空间,当被摄物体位于这段空间内时,其在底片上的成像恰位于同一个弥散圆之间。被摄体所在的这段空间的长度,就叫景深。换言之,在这段空间内的被摄体,其呈现在底片面的影象模糊度,都在容许弥散圆的限定范围内,这段空间的长度就是景深(DOF)。(图片来自网络)PART.2景深的原理“弥散圆”的概念是指在准确对焦的时候,场景中的一个点会在画面中被完美地还原成一个点。而在对焦不实的情况下,这个点会变成一个模糊的圆形。不过画面中清晰和模糊的部分并不是由一条清晰的界线分开的,而是慢慢地从清晰渐变到模糊的。在相机上,当这个点扩散得比相机的一个像素更大时,你就有可能体验到模糊的感觉。脱焦部分的虚化程度会因为不同因素的影响而变化。(图片来自网络)如下图,在摄影机镜头或其他成像器前沿能够取得清晰图像,焦点前后的范围内所呈现的清晰图像的距离,这一前一后的范围,便是景深。(图片来自网络)PART.3影响景深的因素1.光圈光圈越大(光圈值F越小)景深越浅,光圈越小(光圈值F越大)景深越深。我们的眼睛会依据光线情况自动进行调整。光线越亮,瞳孔越小。环境越暗,瞳孔越大。借助这种反应,我们的身体能够非常精确地调节进入眼睛的光量。而相机的光圈,就类似我们人的瞳孔,您可以通过光圈调节进入相机传感器的光线,还会调节和改变景深。如使用F11的小光圈,会拍摄出清晰范围更广的大景深。相反,如果您以F2.8的大光圈拍摄,则景深会变浅。(图片来自网络)2.焦距镜头焦距越大景深越浅、焦距越小景深越深。镜头对景深影响很大,并不主要体现在光圈大小和镜头质量上,而与焦距也有着非常大的关系。当我们使用8mm的广角镜头拍摄,难以拍摄出较浅的景深。即使用光圈为F2.8的光圈,与被摄对象也必须非常接近,才有可能实现。一个35毫米镜头可以让你很容易的拍摄一些浅景深画面,但你仍然需要使用大光圈。在长焦镜头领域,比如说超过55mm的镜头,要拍摄出较浅的景深会容易得多。如下图,焦距小的图片显示了更大的景深,后面的草丛可以看的更加清晰。(图片来自网络)3.工作距离工作距离越短景深越浅,工作距离越长景深越深。如下图,同样50mm焦距的定焦镜头以及光圈F5.6,工作距离越长,景深越深。(图片来自网络)4.感光元件大小(与容许弥散圆半径有关)summary总结1、光圈越大景深越小,光圈越小景深越大。2、镜头焦距越长景深越小,反之景深越大。3、工作距离越近,景深越小,工作距离越远,景深越大。本文仅做学术分享,如有侵权,请联系删文。—THE
2023年2月21日
其他

综述:特征点检测与匹配

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作者丨梦寐mayshine@知乎来源丨https://zhuanlan.zhihu.com/p/128937547编辑丨极市平台导读
2023年2月21日
其他

代码实战:YOLOv5实现钢材表面缺陷检测

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达目前,基于机器视觉的表面缺陷已经在各个工业领域广泛取代人工视觉检测,包括3C、汽车、家电、机械制造、半导体电子、化工、制药、航空航天、轻工等行业。许多基于深度学习的缺陷检测方法也被广泛应用于各种工业场景。本文的代码实战,是基于YOLOv5目标检测算法,在NEU表面缺陷数据集上实现钢材表面缺陷检测。要求Python>=3.7.0,PyTorch>=1.7。一、YOLOv5选取YOLOv5,一方面是因为从最终效果来看YOLOv5已经相当优秀,是发展的比较完备、使用比较广泛的一个版本;而更重要的是YOLOv5的调用、训练和预测都十分方便,为初学者提供了良好的练手工具。YOLOv5的另一个特点就是它为不同的设备需求和不同的应用场景提供了大小和参数数量不同的网络。如图所示,大一点的模型比如YOLOv5l和YOLOv5x参数更多,在大规模的COCO数据集上有更高的预测准确率;而小模型比如YOLOv5n或YOLOv5s占空间更小,适合部署在移动设备上,且推理速度更快,适合于高帧
2023年2月19日
其他

机器人路径规划之Bug算法

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:古月居Bug算法假设机器人是在平面上运动的一个点,并且配备有接触传感器或者距离传感器.该算法有两个动作:直线行走和沿着(障碍物的)边界行走.1
2023年2月19日
其他

AI正在让很多行业的红利消失!

作者:神门自己,复旦大学,编辑:李rumor作者:神们自己(知乎同名,简介见文末)来源:https://www.zhihu.com/question/557600073/answer/2705548589人工智能正在让很多行业消失,只是大多数人还感觉不到。很多人以为的消失,是人的消失:干这行的人少了,少到一个都没有了,这个行业才算真正消失。但我认为更本质的消失,是钱的消失,也就是利润空间的消失。红利少了,行业赚钱难了,优秀人才转行了,这就是行业消失的开始。从行业消失的开始,到在这个行业混饭吃的大多数普通人混不下去了,还需要一段时间。从普通人不卷了,到坚守行业的最后一人寄了,又需要一段时间。这段时间通常对于历史很短,对于个人又很长。所以,我更关注行业利润的消失,而不是从业人员具体减少了多少、最后的钉子户什么时候终于不干了。很多行业的兴衰是不确定的,甚至是周期性的。今天没落了,说不定明天还能复活,死之前再火一把也不是没可能,至少理论上有可能。然而对于人工智能,一旦AI让某个行业赚钱少了、赚钱难了,这个行业就算是上了死亡名单。因为按AI的发展速度,如果今年它能让某行业赚钱难,明年它就能让这个行业赚钱更难,而且以后的每一年都越来越难。那么这个被AI盯上的行业有没有办法自救呢?没有。它唯一能做的,就是祈祷AI的技术发展突然遇到“瓶颈”,或者AI背后的基础科技遇到瓶颈。虽然每天都有人在哀嚎,说深度学习走进了死胡同,摩尔定律已死——但事实是,自从2016年阿法狗横空出世,每年AI都能搞出让营销号疯狂刷屏的大新闻,每一年。下面,我就来说几个在目前看来好像还挺吃香、但其实已经上了AI死亡名单的行业。翻译如果你问我,现在的AI翻译有没有可能取代人类翻译,我的答案是:不能。我自己见过的翻译错误,都可以出一个人工智障集锦。而且我认为目前任何一个语言模型,都不可能做到真正理解语义。但另一方面,AI却又实打实地把人工翻译行业推向消亡。我在小黄鱼上随手搜了一下“翻译”二字,目前人工翻译的价格是10块到100块不等,但很少有上百的。关键词一般都是“英语专八”、“5年经验”、“论文润色”……假如没有AI,人工翻译将是一个庞大的劳动力市场,可以进化出论文翻译、简历翻译、医学翻译等N个细分市场,还可以分成英译中、中译英、以及其它语言等N条赛道。然而有了AI,人工翻译只能挂在小黄鱼上,卖几十块钱。我都不忍心告诉他们,用不了多久,你连几十块钱都赚不到了。因为我做了一个能直接翻译文档的网站,论文、简历、电子书什么的,英文PDF拖进去,中文PDF就出来了。一般翻一个几十页的论文只要半分钟左右,最高支持5000页、50M的大文件。有需要的同学可以试试,目前只有PC版:https://fanyipdf.com/如果是以前,只能一段一段地用复制文字的方式做AI翻译,一次还限制最多几千字,可能还有人嫌麻烦,愿意花钱省时间。现在一本几千页、上百万字的书,几分钟就翻完了,谁还去找人工翻译?除非翻译的人的工资比电费还低,出稿的速度比电脑还快,否则这个市场注定走向消亡。肯定有同学要不服了:瞎说什么呢,我那外国语学院毕业的同学,给领导做口译的,待遇不要太好噢!没错,人工翻译整个行业被AI取代,和一部分人工翻译暂时屹立不倒,两者毫无矛盾。很多人以为AI取代人类的方式是:AI技术发展啊发展,突然有一天,AI在某个领域的水平终于超过人类了,然后AI就一下子把这个行业的人全取代了。还有很多人以为是这样的:AI今天取代了行业金字塔底部的50%的人,明天取代了中部40%的人,后天取代顶部10%的人。他们都错了。实际上AI取代的方式是:先把一个行业的市场切割成10%的高端市场和90%的低端市场,然后逐步压缩低端市场的利润空间,把这个市场的从业者逼到无利可图。一开始大家少赚点还能活,到后来实在卷不动了、纷纷离场,然后AI就占领了这个市场。AI的胜利,不是靠水平超过人,而是靠劣币驱逐良币。恐怕还没等AI的翻译水平超过人类,小黄鱼上的“低端市场从业者”就先寄了,因为实在tm的不赚钱。到那时,你就算想花几十块钱找个人帮你“润色”一下AI翻译出来的人工智障稿,都没地方付钱。因为大部分客户已经不在乎那点人工智障成分,或者说不愿为了极少的错误花钱请人校对,所以从业人员的订单量cover不了他的人力成本,他要么改行,要么涨价。或者,你也可以去找那10%的“高端市场”,价格上千起步。说到这里肯定又有同学要问了:不是还有那10%的高端市场不受影响吗?你怎么能说整个行业都被AI取代了呢?因为,只要AI的技术继续发展下去,剩下那10%,又会被进一步切割成10%的高端市场+90%的低端市场,然后再次循环。就像切香肠,日取其半,永世不竭。当然换个角度,你也可以说:AI永远不会取代人类,这个被AI占据99.99%的行业永远不会消失,毕竟总有人在干这行啊!你干不了,还不是因为你不够努力!也对。虽然在我看来,这和“消失”已经无异。画图先来看几幅画吧:这些画到底水平有多高,我不敢说,我只知道大部分人肯定画不出来。现在我告诉你,这些全部都是AI画的,请问你作何感想?可能有的同学早就看过这些图了,这就是今年大火的diffusion模型,图像生成领域的新突破。我不知道你有没有真正用过diffusion,但我随手玩了几把,发现远没有卖家秀那么完美。比如说,我告诉AI,我要画一只飞行中的鸟,其实对人来说这比画上面这些天秀图简单多了。结果AI生成了一只没有头、没有尾巴、只有翅膀的鸟。AI画人就更没法看了,眼睛鼻子都是歪的。如果不做人为的后期调整,那简直就是恐怖片的剧照。画生物太容易被看出bug,所以diffusion的卖家秀主要是风景画为主,反正一棵树长歪了你也看不出来。营销号就像打了鸡血一样,逮着几张AI风景画使劲薅。实际上我试下来,成功率很低,估计要十几张、甚至几十张,才能挑出几张在我看来拿得出手的图。而且生成图像的“提示词”(prompt)简直就是玄学,到底什么样的文字能让AI画出更漂亮的图,各有各的玄学,其实谁也不知道。按目前AI的nlp能力,它对文本的理解还停留在人工智障级别。所以如果让AI画一个“黑暗中的人”,它可能会画出一个黑人。如果让AI画一个金黄头发、紫色眼睛的人,它可能会画出一个头发一半黄、一半紫的人。Diffusion模型让市场产生了一种幻想,认为它可以迅速取代文字配图的工作,现在看来仍然是幻想。然而,早在AI真正能做好文字配图之前,这个行业已经注定消失了。因为AI取代人类的方式,不是从水平上碾压,而是劣币驱逐良币。比如说,我写了一本书,每张配图要画什么早就想好了,但我完全不会画画,手绘、PS什么的一窍不通。现在我请你来帮我画图,哪怕你只是个没毕业的美院学生,我都觉得你是个天才。我有需求,但我没有实现需求的技能,哪怕最简单的都画不出来,这就是你的议价权的来源。结果现在有了AI,我突然发现,我只要把需求告诉AI,它就能出图。哪怕大部分画都是垃圾,但我不厌其烦地尝试,然后拼拼凑凑,竟也能勉强凑出几张能用的图出来。虽然这些画在你这个美院天才看来仍然是垃圾,但你的议价权没有了。你再也别指望我用真金白银求着你干了,你不干有的是AI干。哪怕这些AI画出的人工智障图都不能用,最后还是要找你来修图,你的议价权也会小很多。换句话说,你再也赚不到原来的利润空间了。乙方最讨厌甲方什么都不懂还bb,但乙方的议价权恰恰来源于甲方什么都不懂还bb。因为他再bb自己也做不来,最后只能掏银子摆平,乙方只是赚多赚少的问题。如果甲方不再对着乙方bb,而是对着AI
2023年2月19日
其他

基于深度学习的车牌检测识别(Pytorch)(ResNet +Transformer)

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达车牌识别概述基于深度学习的车牌识别,其中,车辆检测网络直接使用YOLO侦测。而后,才是使用网络侦测车牌与识别车牌号。车牌的侦测网络,采用的是resnet18,网络输出检测边框的仿射变换矩阵,可检测任意形状的四边形。车牌号序列模型,采用Resnet18+transformer模型,直接输出车牌号序列。数据集上,车牌检测使用CCPD
2023年2月18日
其他

FastPillars实时3D目标检测 | 完美融合PointPillar、YOLO以及RepVGG的思想

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达3D检测器的部署是现实世界自动驾驶场景中的主要挑战之一。现有的基于BEV(即鸟瞰图)的检测器支持稀疏卷积(称为SPConv),以加快训练和推理,这为部署(尤其是在设备上应用)带来了困难。在本文中解决了从LiDAR点云中高效检测3D目标的问题,并考虑了部署。为了减少计算负担提出了一种从行业角度来看具有高性能的基于Pillar的3D检测器,称为FastPillars。与以前的方法相比,本文引入了一个更有效的最大和注意力Pillar编码(MAPE)模块,并以重参化的方式重新设计了一个功能强大、轻量级的骨干CRVNet,CRVNet结合了Cross
2023年2月18日
其他

工业机器人调试,到底多少工资?

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达最近工业机器人市场上,调试工作比较火爆,单个项目动辄几十台机器人同时调试,开出的日薪达到500-2000元。拥有如此庞大的市场需求和丰厚收入的工作,到底有多难呢?如同新买的手机,我们第一时间做的不是用它打电话,而是安装平时需要的软件。工业机器人也是如此,但它的安装调试远比手机复杂得多。结合相关技术手册,以ABB码垛机器人为例,给大家介绍下工业机器人的安装调试的13个步骤。1安装机器人在安装机器人之前,首先要检查设备是否缺件,用眼睛观察机器人是否完好无损。然后安装控制柜,用叉车或吊车吊装机器人本体。最后连接机器人本体与控制柜,机器人与控制柜的连接主要是电动机动力电缆与转数计数器电缆、用户电缆的连接。控制柜2设置语言第一次通电开机时,默认的语言是英语,需要更改为汉语,方便操作。1.点击左上角”ABB”图标2.点击“Control
2023年2月18日
其他

OpenCV与机器视觉

都是基于直方图分布实现的全局阈值计算的方法,其中OTSU的是通过计算类间最大方差来确定分割阈值的阈值选择算法,而Triangle三角法基于直方图的单峰与斜边的最大距离确定阈值。因此,OTSU
2023年2月17日
其他

从泊松方程的解法,聊到泊松图像融合

是可以计算的已知量;因为需要保持边界一致,边界条件上像素值等于背景图片即可。当然也可以做一些策略,但同样也可以计算得到的已知量。现在很轻松了,边界条件已知、散度已知,在离散空间中求解泊松方程中的
2023年2月17日
其他

工业缺陷检测场景简介

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达目录工业缺陷检测场景简介工业缺陷检测场景的特点工业缺陷检测场景的需求工业缺陷检测场景的流程图工业缺陷检测常用的深度学习算法缺陷检测需要的工具工业缺陷检测场景简介在工业生产过程中,由于现有技术、工作条件等因素的不足和局限性,极易影响制成品的质量。其中,表面缺陷是产品质量受到影响的最直观表现。因此,为了保证合格率和可靠的质量,必须进行产品表面缺陷检测。“缺陷”一般可以理解为与正常样品相比的缺失、缺陷或面积。表面缺陷检测是指检测样品表面的划痕、缺陷、异物遮挡、颜色污染、孔洞等缺陷,从而获得被测样品表面缺陷的类别、轮廓、位置、大小等一系列相关信息。人工缺陷检测曾经是主流方法,但这种方法效率低下;检测结果容易受人为主观因素的影响,不能满足实时检测的要求。它已逐渐被其他方法所取代。工业缺陷检测场景的特点自然场景一般是强语义信息,缺陷检测一般为弱语义信息。缺陷检测不需要特别大的感受野,一般为纹路上的缺陷,局部区域就可以判别。工业场景有以下几个特点:业务场景过于分散:缺陷检测场景还是非常分散的,难以归纳。受限、可控:有比较大的人工干预空间。例如可以利用一些光学、机械结构等设计降低场景的复杂,使得我们面临的场景更加纯粹。一般面临的目标比较微弱:这个与目标缺陷的形态、颜色等有关。有时还会有一些例如黑色纹理上的黑色缺陷,强烈吃视角的缺陷等;需求不太明确:很多时候做不到非黑即白的“一刀切。其实仔细思考,并不是客户给不出明确的需求,而是场景和数据本身的固有属性,需求在执行的时候很难做到一致性。精度指标要求比较高:动辄
2023年2月17日
其他

栅线投影/面结构光技术

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作者:琉璃犀https://zhuanlan.zhihu.com/p/146841284本文仅做学术分享,如有侵权,请联系删除。本文主要介绍了栅线投影方法的基本原理-三角测量与线性对应关系,以及栅线投影系统标定的细节。下一篇文章我们将介绍傅里叶与相移两种相位求解方法。栅线投影可能在其他领域更多的被成为面结构光,其和DIC或者线结构光技术相比,有着一些优点:测量数据点多,由于栅线投影技术是逐像素点进行独立求解的(相移方法),所以其可以获得大量的独立点云数据,以2048*2448的相机为例,其可以获得500万级别的数据量,但是对于线结构光,一般只能获得2048或2448的有限倍的数据量。但是,从另一方面而言,固体力学中主要利用lagrange描述方法的理论,而并不是这种Euler描述,虽然二者之间有着转换理论,但是有着一定的不直观性。而且当位移是发生在面内而不是离面时,栅线投影的测量不敏感(所以DIC和栅线投影的结合也是一个发展趋势)。下面就讲一下栅线投影的相关理论。基本原理栅线投影法实质也是一种三角测量方式,通过投影仪和相机光轴呈一定角度来构建搭建三角关系。其反映在具体图像中,可以认为原本均匀分布的栅线,因为三角关系的存在,被物体表面的高度信息调制为特殊的栅线模式(发生了一定的弯曲变形),如图所示。示意图中被测物体选择了二元高斯密度函数。三角关系示意图相位高度关系栅线投影法的测量系统一般由投影仪和相机两个部件组成。其中投影仪负责向被测量物体表面投射特定模式的栅线图案,相机负责采集被投射物体表面的图像。部分情形下还会在被测量物体后引入一个平面作为载波平面,但是即使不引入,在求解时也可以假设一个虚平面,不影响系统的测量。系统的光路图如下图所示(一般来说相机光轴和投影仪光轴不可能共面,当不共面同样可以推导,这里为了展示线性关系所以建立了比较简单的模型)。其中P为投影仪光心,C为相机光心。O为相机光轴和投影仪光轴的交点。设通过O点的水平平面为计算中基准X轴。L1和L2分别为相机光心和投影仪光心到X轴的距离。d为相机光心到投影仪光心沿X轴方向的距离。A-B-0平面为假设的虚平面,所假设的虚平面平行于投影仪光心和相机光心的连接线PC。基本光路图首先由平行相似关系可得虚平面到PC的距离为下:其中
2023年2月16日
其他

100行Pytorch代码实现三维重建技术神经辐射场 (NeRF)

视图。这可以使用一系列从多个角度显示对象的照片来完成,创建对象的半球平面图,并将每个图像放置在对象周围的适当位置。视图合成函数尝试在给定一系列描述对象不同视角的图像的情况下预测深度。02
2023年2月16日
其他

很简单的PLC编程案例,你都能看明白吗?

和Q0.1有输出。当我们按下在线控制面板上的I0.0f时,此时I0.0为ON,此时程序跳转到自动程序运行。两个灯每隔一秒循环亮。先L1亮一秒后L2亮。当在按下在线控制面板上的
2023年2月16日
其他

三维视觉系列公开课:3D环境感知、3D目标检测、点云分割、点云配准

在自动驾驶、机器人、数字城市以及增强现实等应用的驱动下,三维视觉得到了广泛的关注。三维视觉研究主要围绕图像的深度估计、三维点云处理、三维建模及三维场景理解等任务而展开,其数据的获取通常采用激光雷达、深度相机等传感器采集。为了让大家对三维视觉各研究方向有更加深入、更加全面地了解,深蓝学院组织了公益的『三维视觉系列公开课』,邀请了三维视觉各细分方向国内外知名的一线研究者为大家分享研究思路与进展,同时,配套建立了专业的技术交流群。系列公开课涵盖的方向包含3D环境感知、3D物体检测、3D点云分割、3D姿态估计等。除了公益的公开课外,还建立了多个高质量的技术交流群,但入群名额所剩无几。欢迎联系底部的工作人员加入。公开课链接及入群请扫码联系工作人员请务必备注“机器”,优先通过哦!
2023年2月16日
其他

3D目标检测中点云的稀疏性问题及解决方案

Chong等,大连理工大学等核心思想:基于单目图像的3D目标检测由于缺乏深度信息,其3D检测的性能一直差强人意;因此,作者考虑通过teacher-student框架,将点云的深度信息(spatial
2023年2月15日
其他

利用照明优化相机视觉性能,助力突出细节或缺陷检测!

利用近红外光检查PCB的埋线利用彩色光增强对比度使用彩色灯光可以提高计算机视觉检查的对比度。由于大多数视觉系统使用黑白相机,因此可以使用彩色灯光来“减弱”背景颜色,并强调系统试图捕捉的细节。图11
2023年2月15日
其他

数字图像处理技术概述

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:成长在土木1、数字图像处理的目的数字图像处理主要完成的任务有:(1)提高图像的视觉质量以达到人眼主观满意或较满意的效果。例如,图像的增强﹑图像的复原﹑图像的几何变换,图像的代数运算,图像的滤波处理等有可能使受到污染、干扰等因素影响产生的低清晰度、变形等图像质量问题得到有效的改善。(2)
2023年2月15日
其他

最新机器人行业深度报告

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达机器人被誉为“制造业皇冠顶端的明珠”,其研发、制造、应用是衡量一个国家科技创新和高端制造业水平的重要标志。日前,工信部等十七部门关于印发“机器人+”应用行动实施方案,目标到2025年,制造业机器人密度较2020年实现翻番,服务机器人、特种机器人行业应用深度和广度显著提升,机器人促进经济社会高质量发展的能力明显增强。今天分享一份研究报告,全面了解机器人产业。来源:浙商证券股份有限公司、先进制造
2023年2月12日
其他

最新综述:深度学习图像三维重建最新方法及未来趋势

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源:小白学视觉今天分享的是:深度学习领域基于图像的三维物体重建最新方法及未来趋势综述。原文:Image-based
2023年2月12日
其他

双眼可以测距和建立立体环境,双摄像头可以吗?

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达编辑丨3D视觉工坊观点一作者|robot9野生程序猿https://www.zhihu.com/question/23418797/answer/39561946答案是可以!这方面一直是计算机视觉的研究热点,并且已经有了不错的成果!本人研究生阶段主要做三维重建,简单写一些自己所了解的。首先三维和二维的区别,这个大家都容易理解,二维只有x、y两个轴,比如一张素描画,我们整体的感觉是“平”的,而三维则是多了一个z轴的维度,这个z轴的直观理解就是点离我们的距离,也即
2023年2月12日
其他

ChatGPT修bug横扫全场!准确率达78%!网友:程序员要开心了

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达编辑丨量子位ChatGPT到底有多会修bug?这事终于有人正儿八经地搞研究了——来自德国、英国的研究人员,专门搭了个“擂台”来检验ChatGPT的这项本领。除了ChatGPT之外,研究人员还找来了其它三位修bug的“AI猛将”,分别让它们修复40个错误代码。结果真是不比不知道,一比吓一跳。ChatGPT准确修复了其中31个bug,遥遥领先第二名(21个),直接拿下“AI修bug界”的SOTA成绩!于是乎,这项研究引来了众多网友的围观和讨论,Reddit上发布此帖的标题更是用上了“小心”、“注意”这样的字眼:但事实上,这真的会让程序员“危”吗?我们不妨先来看下这项研究。很会修bug的ChatGPT虽然ChatGPT并非是为了专门修改bug而生,但自打它问世以来,不少网友们都发现它是具备这项能力的。因此研究人员为了摸清ChatGPT到底能修改bug到什么程度,便引入了标准的错误修复基准集QuixBugs来进行评估。以及与它同台竞技的AI选手,分别是CodeX、CoCoNut和Standard
2023年2月11日
其他

GPU图像处理的基本流程

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达现代GPU提供了顶点处理器和片段处理器两个可编程并行处理部件。在利用GPU执行图像处理等通用计算任务时,要做的主要工作是把待求解的任务映射到GPU支持的图形绘制流水线上。通常的方法是把计算任务的输入数据用顶点的位置、颜色、法向量等属性或者纹理等图形绘制要素来表达,而相应的处理算法则被分解为一系列的执行步骤,并改写为GPU的顶点处理程序或片段处理程序,然后,调用3D
2023年2月11日
其他

机器视觉常用的三种目标识别方法解析

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达来源丨赛那德科技编辑丨极市平台导读
2023年2月11日
其他

光流运动估计及FlowNet实战

image.load_sample_image('teddybear_frame2.png')image.display([img1,
2023年2月10日
其他

AGV调度系统构架设计

点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达作者:上汽通用五菱汽车股份有限公司重庆分公司李国建来源:《内燃机与配件》目前,就总装物流优化而言,AGV运输系统导入属于目前一个相对新颖的方向。AGV运输系统在汽车企业之中才刚发展起来,还存在较大的优化空间。通过AGV系统的合理规划设计与优化,就成为汽车企业现阶段需要重点考虑的新课题,其本身对于生产效率和成本也会带来极大的影响。一、AGV调度控制系统需求分析及架构设计1.1
2023年2月10日
其他

使用CNN进行2D路径规划

是一个参数,表示像素成为障碍物(即无法穿越的位置)的概率,它与在该地图上找到可行路径的难度成正比。然后让我们利用形态学来获得更类似于真实占用网格地图的“块状”效果。通过改变形态结构元素的大小和
2023年2月10日
其他

全面整理:深度学习(ANN,CNN,RNN)和强化学习重要概念和公式

分别为批量值的平均值和方差,正则化表示如下:它通常用于完全连接或卷积层之后,且在非线性层之前。目的是允许更高的学习率,减少初始化的强依赖。递归神经网络(Recurrent
2023年2月10日