信息科学技术学院2篇成果被国际先进人工智能协会录用

发布时间:2025/04/11 阅读量: 分享到

暨南大学信息科学技术学院2篇成果被<span id="founder-article-proof-0" class="article-proof-founder-level-1" name="article-proof" articleid="1,4396">顶</span>会AAAI-2025录用

暨南大学融媒体中心讯 AAAI全称为国际先进人工智能协会(Association for the Advancement of Artificial Intelligence),是人工智能和机器学习领域的顶级会议,据最新中国计算机学会(CCF)推荐国际学术会议和期刊目录,AAAI为人工智能领域的A类会议。AAAI 2025会议共有12,957篇投稿,接收率仅为 23.4%。我校信息科学技术学院2篇成果被AAAI录用。

配图1

入选论文介绍

论文题目:小规模数据集上视觉Transformer在鲁棒性上优于WideResNets

作者名字:邬钧陶(暨南大学)、宋子玉(暨南大学)、张晓钰(暨南大学)、谢淑君(暨南大学)、林龙新(暨南大学)、王苛(暨南大学)

通讯作者:王苛

摘要:在长时间内,视觉Transformers(ViTs)一直被认为不适合在小规模数据集上获得强大的表现,而WideResNet模型则在这一领域占据主导地位。尽管WideResNet模型在CIFAR-10和CIFAR-100等数据集上持续设定了最先进的(SOTA)鲁棒性准确率,但本文挑战了只有WideResNet能够在这一背景下表现优异的普遍观点。我们提出了一个关键问题:ViTs是否能够超越WideResNet模型的鲁棒性准确率?我们的结果给出了一个肯定答案。通过结合扩散模型生成的数据进行对抗训练,我们证明了ViTs确实可以在鲁棒性准确率方面超越WideResNet。具体而言,在无穷范数威胁模型下,epsilon = 8/255时,我们的方法在CIFAR-10上达到了74.97%的鲁棒准确率,在CIFAR-100上达到了44.07%的鲁棒准确率,相较于之前的SOTA模型,分别提高了+3.9%和+1.4%。值得注意的是,我们的ViT-B/2模型,参数量是WRN-70-16的三分之一,且超越了此前表现最好的WRN-70-16。我们的成就开辟了一条新道路,未来采用ViTs或其他新型高效架构的模型,可能最终取代长期主导的WRN模型。

配图2

框架流程图

论文题目:情景演算中计算完备且正确抽象的句法方法

作者名字:方良达(暨南大学)、王晓曼(暨南大学)、陈长(暨南大学)、罗凯伦(东莞理工大学)、崔振河(湖南科技大学)、官全龙(暨南大学)

通讯作者:官全龙

摘要:抽象是人工智能领域中一个重要且有用的概念。据我们所知,目前还没有一种句法方法可以从给定的低阶基本动作理论和细化映射中计算出完备且正确的抽象动作理论。本文旨在解决这个问题。为此,本文首先提出一种情景演算的变体,即线性整数情景演算,它用作高阶基本动作理论的描述框架。然后,本文将Banihashemi、De Giacomo和 Lesperance三人提出的抽象框架迁移至一个从线性整数情景演算到扩展情景演算的框架。此外,本文确定一类 Golog 程序,即受限动作,用于限制低阶 Golog 程序,并对细化映射施加了一定的限制。最后,本文设计一种句法操作,用于从低阶基本动作理论和受限细化映射中,计算出完备且正确的抽象动作理论。

责编:苏倩怡