基于模糊行为和神经网络的机器人视觉伺服控制

上传人:E**** 文档编号:118098173 上传时间:2019-12-11 格式:PDF 页数:5 大小:467.51KB
返回 下载 相关 举报
基于模糊行为和神经网络的机器人视觉伺服控制_第1页
第1页 / 共5页
基于模糊行为和神经网络的机器人视觉伺服控制_第2页
第2页 / 共5页
基于模糊行为和神经网络的机器人视觉伺服控制_第3页
第3页 / 共5页
基于模糊行为和神经网络的机器人视觉伺服控制_第4页
第4页 / 共5页
基于模糊行为和神经网络的机器人视觉伺服控制_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《基于模糊行为和神经网络的机器人视觉伺服控制》由会员分享,可在线阅读,更多相关《基于模糊行为和神经网络的机器人视觉伺服控制(5页珍藏版)》请在金锄头文库上搜索。

1、th Proceedings of the 25 Chinese Control Conference 7-11 August, 2006, Harbin, Heilongjiang 基于模糊行为和神经网络的机器人视觉伺服控制 刘晓玉,方康玲 武汉科技大学信息学院, 武汉 430081 E-mail: liu_autumn 摘 要: 提出一种新的机器人视觉伺服控制方法,该方法参照人的抓取动作,首先根据物体在图像中的位置 信息,利用模糊逻辑将机器人的手爪移动到物体附近,然后再根据物体当前图像和参考图像之差,利用局部 神经网络对手爪的位姿进行精确调整。整个过程无需机器人和摄像机的标定,能有效利用人

2、的控制经验,伺 服速度快,控制精度高。仿真结果说明本方法的有效性。 关键词: 模糊逻辑, 神经网络, 视觉伺服, 标定 A Visual Servoing Control for Robot Based on Fuzzy Behavior and Neural Networks Xiaoyu Liu, Kangling Fang Information Science and Engineering, Wuhan College of Science and Technology, Wuhan 430081 liu_autumnE-mail: Abstract: A new visual se

3、rvoing control schemes is proposed for the robot arm movements, which is similar to the pick behavior of human. Firstly a visual servoing controller based on fuzzy logic is used to move the gripper into the neighborhood of the object. Then one local neural network uses image error to position and or

4、ientate the gripper exactly. The whole control, which needs no calibration of the robot and the cameras and can utilize humans experience, has fast speed and high precision. Simulation results show the validity and effectiveness of the proposed control scheme. Key Words: Fuzzy Logic, Neural Networks

5、, Visual Servoing, Calibration 1 引言(Introduction) 将神经网络应用到机器人的视觉伺服,可省去基 于图像雅可比矩阵方法中复杂的摄像机标定和矩阵求 逆操作。但神经网络的控制精度和学习速度与学习样 本的数量和网络结构的复杂性密切相关,单靠一个神 经网络很难普适整个机器人工作空间,为此文1采用 一个全局BP网和一个局部BP网分别适用于机器人的 全局工作空间和局部工作空间,以减少学习样本和网 络节点,提高每个神经网络的学习效率;文2用若干 自适应线性神经元逼近相应的局部图像雅可比矩阵, IEEE Catalog Number: 06EX1310 此项目得到

6、湖北省教育厅科学研究计划项目 (B200511007)和武 汉科技大学科学研究发展基金 (2004XY32) 资助. 作者简介: 刘晓玉(1971-), 武汉科技大学讲师, 博士研究生; 主 要研究方向: 机器人技术, 智能控制; 方康玲(1946-), 武汉科技大学 教授, 博士生导师, 主要研究方向: 过程优化与控制, 智能控制. 而由一个自组织映射网根据机械手的当前位置来决定 哪一个神经元被激活;文3用多个CMAC组成分层结 构,由管理层根据输入参数选择一个执行层,以控制 部分任务空间里的机器人动作;文4则用一系列局部 神经网络对对应示教轨迹点邻域进行近似。 以上研究均采用了分级控制的思

7、想,但由于神经 网络学习方法的固有缺陷,全局网的设计存在一些不 足:一方面全局网的覆盖范围大,相应的寻优空间大, 使得权值的学习可能陷入局部极小,进而影响到局部 神经网路的选择,甚至控制误差的收敛;另一方面, 人在机器人控制中的一些先验知识却没能被网络学习 所利用。而模糊逻辑恰能很好地表述和记忆人的经验 知识,从而有效地引导机器人的操作5,6。文5根据 运动目标在手眼中的面积等图像特征判断目标离手眼 的距离,进而将摄像机的控制分为接近和对准两个阶 段,并分别运用模糊逻辑和模糊神经网络完成这两个 阶段的控制;文6首先将机械手的各种操作分解为接 近、对中、抓取等基本行为,并针对各基本行为总结 16

8、29 相应的模糊控制规则,以减少整个操作的模糊控制规 则数量,实现了基于行为的机械手视觉伺服控制。 本文以机器人的智能抓取作业为研究背景,针对 工件形状和手爪抓取姿态已知而工件位姿未知的情 况,首先用模糊视觉伺服控制器进行机器人手爪的初 步定位,然后利用局部神经网络对手爪的位姿作精确 调整。整个控制过程模仿了人的操作行为,控制速度 快,控制精度高。六自由度机器人的数字仿真结果说 明算法的有效性。 2 机器人视觉伺服实现方案(Scheme for Robot Visual Servoing Control) 2.1 视 觉 伺 服 系 统 的 结 构 (Structure of Visual S

9、ervoing System) 为完成对工件的智能抓取,本文采用图1所示系 统结构。其中六自由度关节机器人可达到三维空间的 任意位姿;CCD1为固定安装在工作现场中的数字摄像 机,能在较大范围内获取工件质心的位置;CCD2安装 在手爪上,与手爪的相对位姿固定,可以近距离且准 确地观察工件的摆放姿态。 视觉模糊 行为控制 局部神经 网络控制 CCD1 CCD2 1 2 3 4 5 6 六自由度 机器人 工件 wx wy wz W oz ox object 图1 机器人视觉伺服系统结构 2.2 智 能 抓 取 中 的 模 糊 行 为 (Fuzzy Behavior in Intelligent G

10、rasp ) 人在抓取远处物体时,首先需要利用眼睛观察物 体的方位,但接下来并不是立刻调整好手部的姿态然 后一步到位将物体抓住,而是首先将手移到物体附近, 待看清物体的准确姿态后再调整手部的姿态,最后将 物体准确抓取。 同样的控制思想可应用到机器人的智能抓取作业 中,使机器人的控制变得容易。首先,在手爪的初步 定位中,因不涉及手爪姿态的控制,所以完全可以只 靠机器人的三个自由度(如图1中的 21, 和 3 )的运 动来实现,而控制变量的减少可以大大简化控制器的 设计。其次,由于完全模仿人的动作,许多人的控制 经验可以被充分利用。例如,在图1的配置中,根据 工件在CCD1拍摄的图像中的位置 (假

11、设已通过镜像调 整到与人的视觉同向),就可以总结如下的控制策 略: 如果工件在图像的上方,那么二关节下压或三关 节上抬; 如果工件在图像的左方,那么一关节左转。 显然,这些控制规则都是用模糊语言描述的。这 种基于模糊行为的视觉伺服方法能帮助机器人进行大 致定位,其间机器人各关节的运动变化规律明确、合 理且可控,从而有效避免了神经网络方法中学习的盲 目性和输出轨迹的不可预测性。 但基于模糊逻辑的方法却不太适合于机器人手爪 的精确位姿控制。因为精确的位姿控制需要机器人六 个自由度的协调配合,其控制随机器人各关节当前位 置的不同而不同,很难由人进行总结。所以本文就智 能抓取这一阶段任务选用了基于局部

12、神经网络的视觉 伺服方法。 2.3 智 能 抓 取 中 的 局 部 神 经 网 络 (Local Neural Network in Intelligent Grasp) 事实上,无论是固定摄像机配置,还是眼在手的 摄像机配置,随着机器人各关节位置的不同,摄像 机所拍摄的场景图像也不同,假设当前图像与期望关 节位置处所拍摄的图像之差为,则和e 之间必满 足某种非线性函数关系: e )(fe = (1) 图像雅克比矩阵)(JJ =给出了这种关系在某关 节位置附近的近似,即 e)(J= (2) 将神经网络用于机器人的视觉伺服控制,实质上 就是利用其良好的非线性逼近特性来学习图像雅克比 矩阵的逆。从

13、这个角度看,神经网络在机器人 视觉伺服中的适用范围本来就具有局部特征。而且, 要让神经网络在不损失精度的条件下扩大其逼近空 间,则需要网络结构足够复杂,训练样本足够多,这 样势必会加重网络学习的负担,同时影响网络的执行 速度。所以在机器人的实时控制中,只用神经网络来 进行局部视觉伺服是比较合理的选择。 )( 1 J 1630 2.4 系统整体实现方案(Implementation Scheme for the Whole System) 系统的整体实现方案如图1所示。整个智能抓取 操作分手爪的初步定位和精确定位等两步进行。 2.4.1 手爪的初步定位(Initial Position of t

14、he Grasper) 手爪的初步定位由基于模糊行为规则的视觉伺服 控制器完成。鉴于手眼CCD2的视线范围有限,本方 案首先通过安装在机器人基座正上方的固定摄像机 CCD1对整个工作空间场景进行观察。由于CCD1的轴 心线与世界坐标系的轴重合,所以工件的摆放位置 范围在CCD1的图像平面中是一个标准的半环 形(见图1)。为便于总结模糊行为规则,该半环形区 域用极坐标形式表示,并根据半径坐标r和转角坐标 w z 1 image 进行模糊区域划分,区域的大小由CCD2的视场范 围决定。具体划分方法如图2所示,图中的阴影部分 表示模糊域的值域范围。 r field 2.1 2.6 3.1 3.6 4

15、.1 模 糊 域 )(mmr 1image )(? 图2 CCD1图像平面上的模糊划分 1 image 每个小环形域对应模糊行为规则的一个前 件,根据图像平面中工件所落入的区域决定机器人手 爪初步定位所需采用的控制。值得注意的是,因初步 定位不涉及姿态控制,所以完全可以只用腰、肩和肘 等三个关节的运动来控制机器人手爪的位置。此外, 考虑到手眼摄像机CCD2的视场范围, 初步定位还应将 CCD2的光轴尽量对准工件的z轴,所以此阶段还应增 加对手腕一个关节 r field 5 的控制。归结起来得到手爪初始 定位阶段的模糊行为规则如下面的Mamdani型表述: i R: 如果工件质心靠近区域, 那么

16、一、二、三、 五关节分别运动角度 和。 (3) i r field i 1 i 2 i 3 i 5 更进一步地考虑,由于手爪质心在图像平面 的角坐标 1 image可以只由腰关节转动角 1 控制,半 径r则可以只由肩、肘和腕关节的转动角 5, 3,2 控制,也 就是说,在手爪的模糊定位阶段,腰关节和肩、肘、 腕关节的控制可以是独立的。这样,上述的模糊行为 规则可进一步简化为: ij R: 如 果 r 接 近 i r且接 近, 那 么, , , 。 (4) j j 1 1 = i 22 = i 33 = i 55 = 于是根据r和,应用简化的模糊行为规则,模糊 视觉伺服控制的输出 5, 3,2, 1 为各模糊规则适应度的加 权求和。 2.

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 其它办公文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号