IEEEJAS的个人博客分享 http://blog.sciencenet.cn/u/IEEEJAS

博文

【精选导读】基于神经网络的对象识别与跟踪

已有 1338 次阅读 2022-1-26 17:05 |系统分类:博客资讯

本期推荐4篇基于神经网络的对象识别与跟踪相关好文

T. H. Zhang, J. H. Xiao, L. Li, C. Wang, and G. M. Xie, "Toward Coordination Control of Multiple Fish-Like Robots: Real-Time Vision-Based Pose Estimation and Tracking via Deep Neural Networks," IEEE/CAA J. Autom. Sinica, vol. 8, no. 12, pp. 1964-1976, Dec. 2021.


I. Ahmed, S. Din, G. Jeon, F. Piccialli, and G. Fortino, "Towards Collaborative Robotics in Top View Surveillance: A Framework for Multiple Object Tracking by Detection Using Deep Learning," IEEE/CAA J. Autom. Sinica, vol. 8, no. 7, pp. 1253-1270, July 2021.


A. A. M. Muzahid, W. G. Wan, F. Sohel, L. Y. Wu, and L. Hou, "CurveNet: Curvature-Based Multitask Learning Deep Networks for 3D Object Recognition," IEEE/CAA J. Autom. Sinica, vol. 8, no.6, pp. 1177-1187, June 2021.


W. J. Zhang, J. C. Wang, and F. P. Lan, "Dynamic Hand Gesture Recognition Based on Short-Term Sampling Neural Networks," IEEE/CAA J. Autom. Sinica, vol. 8, no. 1, pp. 110-120, Jan. 2021.


面向多个仿鱼机器人的协调控制:基于深度神经网络的实时视觉姿态估计与跟踪


01研究背景

在过去的十年中,仿鱼机器人作为水下仿生机器人的代表,日渐受到工程师和生物学家的关注。实时鲁棒跟踪多个仿鱼机器人的姿态是一个重点的研究课题。多个体姿态跟踪是个体运动评价、群体运动分析和实时反馈运动控制的基础。然而,对仿鱼机器人的多个体姿态跟踪具有极大的挑战性。一方面,水下机器人周围的水动力学会给机器人的运动带来很大的不确定性。因此,与地面移动机器人相比,姿态估计和跟踪面临着特殊的困难。另一方面,与传统的水下机器人不同,鱼形机器人通常有一个灵活的多关节可变形身体,可以产生生物启发的游泳模式。因此,由于游动过程中的身体变形,再加上水动力因素,使得多个仿鱼机器人在接近时难以识别和跟踪。

针对该问题,IMU和GPS等一些基于非视觉传感器的姿态测量方法不再适用。而基于有标记的视觉系统和无标记的视觉系统因其方便、准确、性能稳定等优点被广泛使用。基于标记的系统通过检测标记来估计和跟踪姿态,但是该方法在单个机器人的情况下精确度较高。无标记系统使用人工经验来处理鱼状目标的姿态估计,但该方法忽略了身体的变形,而这恰好是仿鱼机器人的关键特征。为满足研究多个仿鱼机器人协调控制的需求,未来需要对多类鱼机器人的全局视觉系统进行升级。随着深度学习在计算机视觉方面取得成功,多机器人的视觉系统也得到了发展,例如OpenPose、DeeperCut、DeepLabCut和LEAP。这些基于深度神经网络的进一步刺激了多个多关节仿鱼机器人的无标记姿态跟踪的研究。但是对于协调控制的需要,多个多关节仿鱼机器人的实时精确姿态跟踪仍然是一个挑战。

02成果介绍

为了应对不均匀光照、水波纹和碰撞等具有挑战性的极端情况,从而推进仿鱼机器人的研究,北京大学智能仿生设计实验室谢广明教授团队提出了一种新的基于深度神经网络的全局视觉无标记的方法,用于多关节仿鱼机器人的实时精确平面姿态估计和跟踪,研究成果“Toward Coordination Control of Multiple Fish-Like Robots: Real-Time Vision-Based Pose Estimation and Tracking via Deep Neural Networks”发表于IEEE/CAA Journal of Automatica Sincia 2021年第12期。DOI: 10.1109/JAS.2021.1004228

此算法被称为TAB-IOL。首先,在姿态估计方面,他们设计了一种新的基于CNN的网络结构,将自顶向下和自下向上的方法结合起来,称为TAB。TAB同时输出目标区域和头部、身体、尾巴等关键点的像素信息,利用关键点像素信息纠正了自顶向下方法在一个区域内存在多个个体的局限性。反过来,目标区域为自下向上的方法提供全局的个体信息。TAB利用了自顶向下和自下向上的方法,在精确度和速度上具有优势。其次,对于姿态跟踪,他们使用LSTM构建了一个新的网络,该网络结合了每种关键点的独立运动特性和关键点之间的整体约束,称为IOL。这样的跟踪网络首先分别提取每种关键点的运动特征,然后融合所有单独的特征,以考虑关键点之间的运动约束对精确跟踪性能的影响。

实验中分别对姿态评估和姿态跟踪进行了消融实验,具体的结果如表1和表2所示。表1是对姿态评估进行对比实验,可发现在同一个Backbone下,TAB算法在精度和训练速度上都优于典型的姿态评估方法。表2是对姿态预测进行了对比实验,可发现IOL在兼顾独立运动特性和整体约束的同时,大大提高了精度,也保持了较高的处理速度。为了量化该系统的性能,作者选择了具有代表性的基于网络的动物姿态跟踪系统作为基线,视频测试集上的姿态估计结果如表3所示,结果表明,与现有的基于网络的动物姿态跟踪系统相比,该系统在精度和速度上都有优势。图1分别显示了该方法和模板匹配方法下五个仿鱼机器人的跟踪轨迹。相比之下,该方法比模板匹配方法更准确,跟踪失败更少,身份交换更少。


1 多关节仿鱼机器人图像测试集的姿态估计消融研究结果

1-表1.png

2 多关节仿鱼机器人视频测试集的姿态跟踪消融研究结果

1-表2.png

3 多关节仿鱼机器人视频测试集的姿态估计研究结果

1-表3.png

1-图1.png

(a) 本文所提方法       (b) 模板匹配方法

图1 5个仿鱼机器人的轨迹跟踪

03作者及团队

张天昊 北京大学博士研究生,2017年在山东大学控制科学与工程学院获得工学学士学位,目前在北京大学工学院智能仿生设计实验室攻读博士学位。研究兴趣包括图像处理、多智能体强化学习、仿生机器人等。

Jiuhong Xiao 美国纽约大学Courant Institute of Mathematical Sciences硕士研究生2019年在北京科技大学获工学学士学位。2018年-2020年在北京大学工学院交换学习。研究方向主要为计算机视觉、姿态估计和目标检测。

Liang Li 德国MaxPlanck Institute of Animal Behavior博士后。2017年在北京大学获一般力学及力学基础专业博士学位。研究兴趣包括生物启发机器人、混合动物-机器人系统的集体行为、鱼群的生物流体动力学和机器人的群体智能。

王晨 北京大学软件工程国家工程研究中心助理研究员,2007年-2014年分别获得北京大学一般力学与力学基础理学博士学位和荷兰格罗宁根大学系统与控制博士学位。2014年-2018年在北京大学从事博士后研究。主要从事水下仿生机器人集群智能协同控制理论与技术的研究,发表SCI或EI收录学术论文50余篇,包括系统控制领域顶级期刊IEEE Transactions on Automatic Control、Automatica、机器人领域顶级期刊IEEE Transactions on Robotics,以及相关领域权威国际会议ICML、IEEE CDC、ICRA、IROS、ECCV、IFAC等。Google学术引用680余次。

谢广明 北京大学教授,博导,清华大学控制理论与控制工程博士。2001年-2003年北京大学力学系博士后,曾赴加州大学河滨分校访问教授。主持包括重点项目在内的多项国家自然科学基金项目。获得国家自然科学奖二等奖、教育部自然科学奖一等奖等多项奖励。先后担任中国自动化学会机器人竞赛工作委员会副主任,中国系统仿真学会智能物联系统建模与仿真专业委员会委员、中国生产力促进协会服务机器人专业委员会委员等,期刊Mathematical Problems In Engineering主编,Scientific Reports等多个期刊编委。

北京大学智能仿生设计实验室(Intelligent Biomimetic Design Lab)立足于智能仿生装备与系统的设计、研发与实际应用,实验室对自然界生物个体机理和机制进行探究,开展生物个体功能的仿生创新,模仿生物的运动、感知、定位、通信等能力,并高度融合人工智能、机器人与创新设计。特别地,实验室还对自然界广泛存在的集群行为进行探究,模拟自组织的群体协作能力并应用到大规模的人工群体中去。实验室积极响应新一代人工智能发展规划和军民融合的国家战略发展需求,将机器人与人工智能技术相结合;也传承并发扬着北京大学“常为新”的精神。代表性研究成果:1)研发出可以实现行进后退、左右转弯以及灵活翻滚等三维运动的仿箱鲀机器鱼。2)设计和开发的多机器鱼协作控制实时仿真系统,是首个以多机器鱼协作为仿真对象的软件系统。3)谢广明教授创立了国际水中机器人大赛,这是首个由中国人创立的国际性机器人赛事。4)2015年,凭借“智能仿生机器人与多机器人协作的关键技术研究”,谢广明教授获得吴文俊人工智能科学技术奖创新奖二等奖;同年获得教育部自然科学奖一等奖,题目是网络化动态系统的分析与控制,在此奖项的基础上,2017年该项目斩获国家自然科学奖二等奖。


面向俯视监控中的协作机器人:基于深度学习的多目标检测跟踪框架

01研究背景

协作机器人是学术界和工业界的热门研究课题之一,并成为工业、制造业、运输业、家庭任务处理、医疗保健服务等不同领域的关键技术,其中最突出的是智能视频监控。大多数监控系统由一个集中监控结构组成。然而,监控多个视频流对于操作员来说可能是一项繁重且乏味的任务。因此,需要使用协作机器人技术提供智能自动化监控系统,该系统可以监控和分析多个视频流。基于协作机器人的监视系统主要通过使用智能相机设备和视觉处理技术来提供有关特定环境或场景中不同活动的有用信息,它提供的信息可能有助于行为分析、事件和活动分析、拥挤环境中的人员管理和保护、运动模式检测和目标跟踪。同样,它在现实生活的应用中也很重要的意义,例如安全分析、自动驾驶车辆、人脸识别、人机交互机器人和定位和导航。对此,它可能会受到多种因素的影响,包括目标外观的变化(大小、身体方向、姿势)、不同的背景、照明条件、杂乱的场景和相机视角、运动的突然变化以及目标的密切交互。

针对此问题,大多数的方法主要基于传统的泛化模型、特征模型、深度模型以及不同的机器学习分类器进行展开研究。而深度学习模型的进展使得目标检测以及目标跟踪在计算速度和准确性方面更加鲁棒和高效。这些模型的主要优点是自动选择目标的最显着特征。一般而言,基于特征或基于深度学习的技术通常是为正常、水平或正面视图目标检测和跟踪而开发的,并未使用协作机器人。因此,研究人员开发了不同的目标跟踪方法,这些方法在目标检测和跟踪上更具有鲁棒性,但仍然遭受目标遮挡的困扰。相比之下,在正面视图中,如果捕捉到类似的目标并从俯视角度观察,则可以减少遮挡问题。同样,使用俯视视图提供更多的场景可见性,并且目标对相机更可见。

02成果介绍

为了进一步证明俯视监控的重要性,Gwanggil Jeon教授等提出了一个协作机器人框架,它可以协助检测和跟踪俯视监视中的多个目标。研究成果"Towards Collaborative Robotics in Top View Surveillance: A Framework for Multiple Object Tracking by Detection Using Deep Learning"发表于IEEE/CAA Journal of Automatica Sincia 2021年第7期。DOI:10.1109/JAS.2020.1003453

该框架由嵌入视觉处理单元的智能机器人相机组成。引入了俯视图协同监视框架,可以帮助操作者完成多个目标跟踪和检测任务。该结构由一个智能机器人摄像头和一个视觉处理单元组成,该单元使用基于深度学习的预训练目标检测模型。现有的预训练深度学习模型SSD和YOLO已被用于目标检测和定位。检测模型进一步与不同的跟踪算法相结合,包括GOTURN、MEDIAFLOW、TLD、KCF、MIL和BOOSTING。这些算法以及检测模型有助于跟踪和预测检测到的目标的轨迹。采用预训练模型;因此,还通过在各种俯视图数据集序列上测试模型来研究泛化性能。

在实验中,不同的参数用于评估不同的跟踪算法。实验将参数进一步分为以下两类:a) 假检测率(False detection rate, FDR)和真检测率(True detection rate, TDR): 这两个参数用于评估基于深度学习的多顶视图目标检测模型;b) 跟踪精度(Tracking accuracy, TA)用于评价不同的跟踪算法。1) 检测结果:详见表1,可观察到YOLO和SSD模型都有良好的效果。对于俯视视图,两种模型对多目标检测都表现良好。但是,与YOLO模型相比,SSD的整体性能还是略胜一筹。但是相对于速度来说,YOLO性能更好。对于包含人物样本视频帧,YOLO模型实现了92%的TDR,而对于其他目标样本,TDR范围为90%到92%。同样,对于SSD模型,多个俯视视图目标的TDR范围为90%到93%。2) 跟踪结果:描绘了六种不同跟踪算法的性能测量,用于针对每个目标的对称和非对称视图中的室内和室外俯视视图场景。跟踪算法的准确性会随着不同的目标而变化。它表明改变相机视角会明显影响物体的形状和外观。不同跟踪算法也在表2和3中给出。使用YOLO模型,跟踪算法对人的跟踪准确度范围为90%到93%,而SSD模型对人的跟踪准确度范围为90%到94%。与其他跟踪算法相比,GOTURN的性能非常出色,跟踪准确率为94%。


1 使用深度学习模型的俯视图多目标检测结果

2-表1.jpg

2 使用YOLO检测模型的不同目标跟踪算法结果

2-表2.png

3 基于SSD检测模型的不同目标跟踪算法结果

2-表3.png

03作者及团队

Imran Ahmed 巴基斯坦Institute of Management Sciences助理教授,获英国南安普顿大学计算机科学专业博士学位。研究方向包括深度学习、机器学习、数据科学、计算机视觉、特征提取、数字图像和信号处理、医学图像处理、生物度量学、模式识别和数据挖掘。曾担任IEEE Industrial Electronics等期刊审稿人。

Sadia Din 韩国Yeungnam University助理教授。2020年获得韩国Kyungpook National University博士学位,同年3月-8月在该校从事博士后研究。研究方向主要包括大数据、5G、物联网和数据科学。曾担任2017年在新加坡举行的IEEE LCN会议主席、Wiley期刊客座编辑等。

Gwanggil Jeon 西安电子科技大学和韩国Incheon National University教授,四川大学、新疆大学、西班牙庞培法布拉大学、泰国拉甲邦国王技术学院和法国勃艮第大学的客座教授。2008年获得韩国Hanyang University电子与计算机工程系博士学位。2009年9月-2011年8月在加拿大渥太华大学信息技术与工程学院从事博士后研究。2011年9月-2012年2月在日本新泻大学科学技术研究科担任助理教授。Sustainable Cities and Society、IEEE Access、Real-Time Image Processing、Journal of System Architecture和Remote Sensing的Associate Ediror;2007年IEEE Chester Sall奖和2008年ETRI期刊论文奖获得者。

Francesco Piccialli 意大利University of Naples Federico II (UNINA)数学与应用学系计算机科学助理教授。在该校获计算机科学博士学位。他是M.O.D.A.L.研究小组的创始人和科学总监,该研究小组致力于数据科学和机器学习领域及其新兴应用领域的新方法、应用和服务前沿。在国际会议和顶级期刊(IEEE,Springer,ACM,Elsevier)发表论文90余篇。研究方向主要为机器学习、物联网等。

Giancarlo Fortino 意大利University of Calabria (Unical)教授。于2000年获得Unical计算机工程博士学位。现为武汉科技大学、华中农业大学特聘教授、ICAR-CNR研究所高级研究员、SPEME实验室主任等。研究兴趣包括基于代理的计算、无线传感网络和物联网。发表论文450余篇,组织国际会议100余次。IEEE人机系统系列丛书、IEEE THMS、IEEE IoTJ、IEEE SJ、IEEE SMCM等(创办)系列编辑,IEEE SMCS BoG和IEEE Press BoG成员、IEEE SMCS意大利分会主席。

韩国仁川大学嵌入式系统工程系成立于2003年,专注于智能系统,包括自动驾驶汽车和无人机,学习系统分析和设计、数据结构、处理器、数字系统和通信系统、操作系统、嵌入式软件设计、传感器和执行器、嵌入式数据库管理系统、信号处理等。


CurveNet:用于3D对象识别的基于曲率的多任务学习深度网络
01研究背景

在计算机视觉领域,3D物体识别是许多现实世界应用中最重要的任务之一,然而与使用深度学习方法的2D图像分析取得的进展相比,理解三维物体仍然是现代计算机视觉研究的一个开放性研究问题。三维空间中的真实对象提供了更详细的信息。随着低成本3D采集设备的出现,捕获3D对象变得更加容易。3D模型公共存储库的兴起也引起了人们对计算机视觉研究的关注,例如3D对象识别、重建、语义分割和检索。

基于卷积神经网络(CNN)的3D对象识别系统取得了相当大的进步,但3D CNN在识别3D对象方面不如2D CNN成功,尤其是在对象标签预测方面。这背后有几个原因,例如,由于其复杂的几何结构、相对较小的训练数据库以及3D CNN所需的高计算成本,选择3D对象的输入特征至关重要。3D表示是保留3D对象内在特征的唯一方法;因此,需要探索3D对象和高级神经网络的新特征来改进3D视觉任务。基于人工智能的计算机视觉系统是使用先进的机器学习(ML)算法(例如深度学习)开发的。此外,CNN的对象分类精度也受到输入特征的高度影响。

02成果介绍

为了提升3D对象识别的准确率,上海大学通信与信息工程学院博士研究生A. A. M. Muzahid和万旺根教授等提出了用于3D对象识别的基于曲率的多任务学习深度网络(CurveNet),研究成果“CurveNet: Curvature-Based Multitask Learning Deep Networks for 3D Object Recognition” 发表于IEEE/CAA Journal of Automatica Sinica 2021年第6期。DOI:10.1109/JAS.2020.1003324

该框架采用3D CAD模型的主曲率方向来表示几何特征作为CurveNet的输入,曲率方向结合了3D对象的复杂表面信息,有助于对象识别生成更精确和有辨别力的特征。同时考虑了多任务(标签和姿势)和多尺度学习(在初始模块中)策略,应用网络融合和数据增强方法来提高识别率。

实验在ModelNet40数据集上进行,比较了分别来自体素的表面边界信息和曲率信息来评估模型的性能,如表1所示,归一化的最大曲率方向向量显示出优于体素的分类精度,与使用相同网络的表面边界信息相比,CurveNet框架将分类精度提高1.2%。性能同时优于采用最先进的体积方法3D ShapeNet和VoxNet。这是因为CurveNet框架分别使用曲率信息作为输入特征和通过添加姿势分类进行辅助学习。曲率为CNN提供了可观的深度和感知特征,辅助姿态学习有助于提高目标分类精度,此外,投票方法是提高分类器性能的另一种常用方法。表2给出了姿势学习和投票方法对使用CurveNet提高分类精度的影响。在实验过程中发现,当两个类别之间相关性较高时或导致准确率略有偏差,实验结果如图1所示。


1 CurveNet与ModelNet40分类准确度的比较

3-表1.png

2 姿势分类和投票方法对ModelNet40上对象标签分类的影响

3-表2.png

3-图1.png

图1 ModelNet40数据集上每类的分类精度

03作者及团队

A. A. M. Muzahid 上海大学博士研究生。2016年在重庆邮电大学获得硕士学位。目前是上海大学智慧城市研究院成员,领导“计算机视觉与3D虚拟现实”研究团队。研究兴趣包括增强现实、虚拟现实和计算机图形学。

万旺根 上海大学通信与信息工程学院教授,博导。1992年在西安电子科技大学获得博士学位,1993年-1995年在西安交通大学信息与控制工程系从事博士后研究。研究兴趣包括计算机图形学、计算机视觉、信号处理和数据挖掘。在国际著名期刊及会议发表学术论文130多篇(其中SCI/EI检索50余篇);申请和获得专利及软件知识产权10项,出版专著1部。获1996年上海市“启明星”学者称号、1997年上海市高校优秀青年教师称号、1998年上海市“曙光”学者、2000年国家教育部骨干教师称号。担任IEEE CIS(Computational Intelligent Society)上海分会副主席、IET上海分会副主席、中国计算机学会嵌入式专业委员会委员、中国图象图形学学会虚拟现实专业委员会委员。至今已承担或参与各类科研项目15余项。

Ferdous Sohel 澳大利亚Murdoch University副教授。在澳大利亚Murdoch University获得博士学位。研究兴趣包括计算机视觉、机器学习、模式识别和数字农业。澳大利亚研究委员会资助的Discovery Early Career Research Award获得者,IEEE Transactions on Multimedia和IEEE Signal Processing Letters的Associate Editor,澳大利亚计算机学会会员、IEEE高级会员。

Lianyao Wu 上海大学硕士研究生,上海大学智慧城市研究院成员。2017年在上海大学通信与信息工程学院通信工程专业获学士学位。研究兴趣包括增强现实、虚拟现实和计算机图形学。

Li Hou 2017年在上海大学通信与信息系统专业获博士学位。研究兴趣包括计算机视觉、机器学习、视频/图像处理。

上海大学通信与信息工程学院是通信、电子、信息领域人才培养和科学研究的重要基地之一由通信工程系、电子信息工程系、上海大学光纤研究所和上海电子物理研究所组成。学院现有教职工172名,其中正高级职称教师56人(中国科学院院士1人、IEEE Fellow2人、国家杰青1人、国家优青3人),拥有4个本科专业、4个学术硕士点、1个专业硕士点、两个一级博士点,设有信息与通信工程和电子科学与技术两个博士后流动站,还拥有上海市特种光纤与光接入网重点实验室、两个卓越工程师教师实习培训基地、三个“国家级工程实践教育中心”。


基于短期采样神经网络的动态手势识别
01研究背景

手势是人机交互的自然方式,并被广泛的用于代替口语进行交流,如:美国手语是一种基于手势的发达肢体语言。而随着信息技术和计算机科学的飞速发展,非接触式人机交互一直是研究热点,手势识别作为其中重要的一部分也成为研究热点。目前手势识别技术按照输入设备可以分为两类:基于非视觉的和基于视觉的。基于非视觉的通常通过佩戴一些光学或机械传感器将手部运动转化为电信号,但当手部处于禁止状态时不会产生任何信号。而基于视觉的手势识别方法使用单个或多个摄像头或精确的身体运动传感器能够识别禁止和动态状态。

然而,基于视觉的手势识别有着两大难点:1)如何有效地从视频输入中获取空间和时间信息;2)数据集限制问题;因此一种能够有效解决上述问题的手势识别方法十分必要。

02成果介绍

为了改善有效从视频输入获取空间信息、时间信息的效果处理数据集限制问题。美国蒙茅斯大学Jiacun Wang教授等提出了一种短期采样神经网络框架(STSSN)和新颖的数据集增强方法,研究成果Dynamic Hand Gesture Recognition Based on Short-Term Sampling Neural Networks” 发表于IEEE/CAA Journal of Automatica Sinica 2021年第1期。DOI: 10.1109/JAS.2020.1003465

该框架首先将RGB视频及其光流分别划分为固定数量的视频帧组。其次,将RGB帧组和相应光流组的两个样本融合为一个样本。然后,通过ConvNet从这些代表性样本中捕获短期空间信息和时间信息。之后,将从ConvNet中学习到的特征输入到LSTM中,以学习远程特征。最后,LSTM根据每个LSTM组件学习到的特征进行手势分类。数据集增强方法通过随机距离缩小原始视频来生成“缩小”数据集。它不仅提供了更多的训练数据样本,而且有助于验证训练模型的鲁棒性。此外,每组中的随机采样和在RGB帧上叠加光流帧也能引入数据多样性,因为来自不同组的不同采样代表可以形成许多不同的输入组合。

在实验过程中,为了解决数据集限制问题,通过“缩放”来构建增强数据集,以防止模型过拟合,提高训练模型的鲁棒性,如图1所示。合适的视频帧组对于识别精度至关重要。因此,如图2所示,分别在原始数据集和增强数据集中将视频划分为若干组,并计算每组的分类精度以选择最佳分组。由实验结果可知,在两个数据集中,最优组数为9,且增强数据集具有更好的鲁棒性和实用性。


4-图1-1.png

(a) 原始帧

4-图1-2.png

(b) 缩小帧

图1 原始数据集和增强数据集的对比

4-图2-1.png

(a) 具有不同组号的Jester数据集的验证集上的结果

4-图2-2.png

(b)具有不同组号的增强Jester数据集的验证集上的结果

图2

03作者及团队

Wenjin Zhang 美国蒙茅斯大学兼职教授。2020年获蒙茅斯大学软件工程硕士学位。研究兴趣包括机器学习、深度学习和计算机视觉。

Jiacun Wang 美国蒙茅斯大学教授。1991年在南京理工大学计算机工程专业获得博士学位。研究兴趣包括软件工程、离散事件系统、无线网络、实时分布式系统等。在国际著名期刊及会议发表学术论文90多篇,曾担任多个国际会议主席、委员会成员等。

Fangping Lan 美国蒙茅斯大学硕士研究生。2019年9月-2020年5月在蒙茅斯大学担任研究助理。研究兴趣包括机器学习和深度学习。

美国蒙茅斯大学计算机科学与软件工程系致力于计算机科学、软件工程、信息系统和信息技术领域,包括人工智能、数据挖掘、计算社会科学、网络、数据库、信息检索、智能信息系统、软件需求、软件架构与设计、软件过程建模、实时分布式系统、工作流管理系统等。




https://m.sciencenet.cn/blog-3291369-1322789.html

上一篇:基于折扣广义值迭代的智能最优跟踪及应用验证
下一篇:《自动化学报》2022年48卷1期目录分享

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-29 00:35

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部