关注前沿科技 量子位
IEEE/CVF国际计算机视觉与模式识别会议(CVPR),作为人工智能领域最具学术影响力的顶级会议之一,将于2025年6月11日至6月15日在美国田纳西州隆重举行。
在此盛会中,第五届对抗机器学习Workshop将由北京航空航天大学、中关村实验室、南洋理工大学等全球知名学术机构联合举办。本次Workshop以基础模型+X为主题,旨在深入探讨基础模型(FM)及其在特定领域应用(XFM)中的鲁棒性挑战。
主题聚焦:基础模型+X
基础模型(FM)以其强大的生成能力,彻底改变了包括计算机视觉在内的多个领域。在此基础上,X领域特定的基础模型(XFM),如自动驾驶FM、医疗FM等,通过在精选数据集上的训练和针对任务的架构修改,进一步提升了各自领域内的专业任务性能。然而,随着XFM的广泛应用,其对抗性攻击的脆弱性也逐渐暴露。这些攻击可能导致模型对输入图像或提示进行错误分类,甚至生成对手期望的输出,对自动驾驶、医疗诊断等安全关键型应用构成重大威胁。
论文征稿
本次研讨会诚邀与以下主题相关(但不限于)的投稿,并设立最佳论文奖(Best Workshop Paper):
- Robustness of X-domain-specific foundation models
- Adversarial attacks on computer vision tasks
- Improving the robustness of deep learning systems
- Interpreting and understanding model robustness, especially foundation models
- Adversarial attacks for social good
- Dataset and benchmark that could evaluate foundation model robustness
重要日期
论文提交开放:2025年2月1日 摘要提交截止:2025年3月15日 论文提交截止:2025年3月20日 录用通知:2025年3月31日 最终版提交:2025年4月7日
演讲嘉宾
……
组织团队
Program Committee
竞赛
此外,本次研讨会将举办一场以针对基础模型中多模态大语言模型(Multimodal Large Language Models, MLLMs)的对抗攻击为主题的竞赛。本次挑战赛旨在通过“红队”视角,邀请全球开发者、研究人员和爱好者,设计并提交能够触发多模态大语言模型产生有害、不当或非法内容的图像文本对。通过这一过程,希望揭示MLLM的脆弱性,推动安全技术的创新,并为未来的模型开发提供重要的改进方向。
比赛分为初赛和复赛两个阶段。初赛方面,主办方将提供若干类风险类别下的有害文本查询,参赛者需设计对应的对抗图文对,使MLLM产生安全风险输出;复赛阶段,主办方将提供难度更大的风险类别的若干类有害文本查询,参赛者目标与初赛相同。最终,根据复赛图文对的攻击成功率进行评分,并决定获奖队伍。
竞赛详情将于后续在Workshop官网公布,诚邀全球研究者密切关注并参与!
Challenge Chair:
竞赛承办协办单位:
第五届CVPR对抗机器学习研讨会 https://cvpr25-advml.github.io/
论文提交入口:https://openreview.net/group?...
— 完 —
学术投稿请于工作日发邮件到:
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文/项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
一键关注 👇 点亮星标
科技前沿进展每日见
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。