近日,CCF A类国际会议AAAI 2024放榜,本次会议共提交了12100篇文章,接受了2342篇论文,总体录用率为23.75%。人工智能与计算机学院吴小俊教授领导的教育部人工智能国际合作联合实验室共有三篇论文被AAAI 2024录用,下面是论文列表及介绍:
题目:SCD-Net: Spatiotemporal Clues Disentanglement Network for Self-supervised Skeleton-based Action Recognition
作者:Cong Wu,Xiao-Jun Wu,Josef Kittler,Tianyang Xu,Sara Ahmed,Muhammad Awais,Zhenhua Feng
摘要:对比学习在基于骨架的动作识别领域取得了巨大成功。然而,大多数现有方法将骨架序列编码为互相纠缠的时空表示,并将对比限制在相同级别的表示中。相反,本文引入了一种新颖的对比学习框架,即时空线索解耦网络(SCD-Net)。具体而言,我们将解耦模块与特征提取器集成在一起,分别从空间和时间域中提取明确的线索。至于SCD-Net的训练,通过构建全局锚点,我们鼓励锚点与提取的线索之间的交互对比。此外,我们提出了一种新颖的带有结构约束的掩码策略,以加强上下文关联。我们在NTU-RGB+D(60&120)和PKU-MMD(I&II)数据集上进行了广泛的评估,涵盖了各种下游任务,如动作识别、动作检索、迁移学习和半监督学习。实验结果表明了我们方法的有效性,其显著优于现有的最先进的方法。
题目:Generative-based Fusion Mechanism for Multi-Modal Tracking
作者:Zhangyong Tang, Tianyang Xu, Xiao-Jun Wu, Xuefeng Zhu, and Josef Kittler
摘要:尽管生成模型在众多研究任务中已经展现了较强的综合理解能力,它在多模态目标跟踪中的应用仍未被探索。因此,在此文中我们尝试使用生成式范式去解决多模态任务的核心问题-多模态信息融合。我们深入对比了两种常见的生成模型,条件生成对抗网络以及扩散模型。与传统融合范式将各个模态特征直接输入到融合网络不同,在生成式融合范式中我们将模态特征与随机噪声相结合,有效地将原始相对简单的样本对转换为困难样本对,提高了网络对噪声(无效信息)的感知能力,因此能够获得更好地跟踪性能。为了验证方法的有效性及鲁棒性,我们在2个不同的跟踪任务、3个不同的跟踪框架、4个不同的跟踪基准测试集上进行了验证实验,体现了算法较好的鲁棒性,同时在GTOT、LasHeR和RGBD1K测试集上达到了当前的最优性能。
题目:OSFFNet: Omni-Stage Feature Fusion Network for Lightweight Image Super-Resolution
作者:Yang Wang;Tao Zhang
摘要:最近,基于深度学习的方法在单图像超分辨率(SISR)方面表现出了令人印象深刻的性能。然而,当在资源有限的边缘设备上部署这些方法时,高计算需求带来了挑战。研究人员已经提出了轻量级的解决方案来解决这个问题,包括参数共享策略和信息蒸馏机制。这些轻量级的方法主要依赖于按顺序简化网络结构来提高计算效率,但忽略了对底层特性的充分利用。然而,事实仍然是,低级别的特性包含了超分辨率任务的关键细节,包括边缘、纹理和颜色。忽略这些特征可能会导致关键细节的丢失,从而影响超分辨率算法的整体性能。因此,有必要开发一种新的架构,能够有效地整合不同层次的特征,并利用它们的互补性。我们首先分析了一种经典的轻量级SR方法中的多阶段特征与恢复任务之间的关系。在此基础上,我们提出了一种全级特征融合(OSFF)体系结构,该体系结构包含了原始图像的堆叠初始化、浅层特征的全局连接和多接受域的动态融合。同时,还设计了一个注意力增强的特征精馏模块来提高模型的性能。最后,我们构建了一个全阶段特征融合网络(OSFFNet)。通过在各种基准数据集上的广泛实验,所提出的模型优于最先进的方法。值得注意的是,在Urban100数据集的2倍超分辨率任务上,它比第二优的方法提高了0.26 dB的PSNR。
AAAI是具有重要影响力的国际学术组织,由计算机科学和人工智能领域奠基人Allen Newell、Marvin Minsky、John McCarthy等学者于1979年共同创立,旨在推动智能思维与行为机制的科学理解及机器实现,并促进人工智能的科学研究和规范应用。AAAI是国际顶级学术会议——AAAI人工智能大会(AAAI Conference on Artificial Intelligence)的组织者。2024年AAAI人工智能大会将在加拿大温哥华举办。