首页

征文通知|ICME 2026专题征稿截稿延期

  经ICME 2026组委会讨论,论文投稿截止时间延期至2025年12月31日11:59 pm(AOE)。本次投稿延期为唯一的一次延期,已经提交投稿的论文依然可以在系统里进行修改。欢迎投稿!
  大会简介
  ICME 2026(lEEE International Conference on Multimedia&Expo)将于2026年7月5日至9日在泰国曼谷举行。该会议是由IEEE四大协会——电路与系统协会(CAS)、通信协会(ComSoc)、计算机协会(CS)以及信号处理协会(SPS)——联合主办的旗舰级多媒体会议。会议旨在促进多媒体技术、系统和应用等领域最新研究成果的交流与共享,是国际上重要且受到国际学术界广泛认可会议。更多信息见大会网站:

https://2026.ieeeicme.org。


  CSIG学会专家学者积极参与组织大会专题,Visual Intelligence微信公众号将分批发布专题征稿通知,本次发布五则征稿通知,欢迎大家投稿!
  专题1
  LLM and Multimodal LLM for Affective Computing
  专题内容
  The ability to process and simulate human emotion is widely regarded as a critical criterion in the pursuit of Artificial General Intelligence(AGI).Despite its importance,computational modeling of emotion remains challenging due to the abstract and multimodal nature of affective cues.The emergence of Large Language Models(LLMs)and Multimodal LLMs(MLLMs)offers a transformative opportunity to address these challenges,providing the reasoning capabilities necessary to progress from low-level perception to high-level cognition and emotion understanding.This special session proposes a comprehensive examination of the intersection between generative LLM/MLLM and affective computing.Aiming to build a near AGI-level emotionally and intellectually integrated framework,we systematically review decades of advances in the field to construct a vital source as infrastructure.The resources including 58 datasets and 190 methods among multiple affective modalities.We invite contributions that leverage these resources to advance model architectures,learning paradigms,evaluation metrics,and real-world applications.The traceable resources of datasets and works are available in

https://github.com/nku-zhichengzhang/Awesome-emotion_llm_and_mllm.


  征稿主题
  Topics of interest include,but are not limited to:
  •Pre-training,continuous pre-training,and post-training of LLM/MLLM for affective tasks
  •Generative model architectures and mechanisms for emotion and sentiment analysis
  •Multimodal fusion techniques for enhanced affective computing across image,text,audio,and video affective modalities
  •Cross-modal content understanding,reasoning and generation for affective computing
  •Explainable evaluation frameworks,new metrics,and comprehensive benchmarks for assessing emotional intelligence in LLM/MLLM
  •LLM/MLLM-based emotion techniques for applications in wearable and IoT services
  •LLM/MLLM-based emotion techniques for cognitive medical AI
  •Controllable emotional content and expression generation for emotionally and intellectually integrated embodied frameworks
  •Emotional experience feedback techniques for LLM/MLLM training
  投稿须知
  我们的日程安排严格遵循ICME 2026会议的相关要求;如有任何调整,请以会议官方网站的最新通知为准。
  论文提交:2025年12月31日
  录用通知:2026年3月13日
  终稿提交:2026年4月5日
  会议召开:2026年7月5–9日
  通过ICME官方CMT系统提交,选择Special Session:LLM and Multimodal LLM for Affective Computing。格式:IEEE双栏模板,6页正文。录用论文将收录至IEEE Xplore。
  专题组织者&联系方式
  Zhicheng Zhang(Nankai University),Email:gloryzzc6 sina.com
  Dongyu She(Zhongguancun Lab),Email:shedy zgclab.edu.cn
  Xiaoxiao Sun(Stanford University),Email:xxsun stanford.edu
  Jufeng Yang(Nankai University),Email:yangjufeng nankai.edu.cn
  Contact person:
  Jufeng Yang:yangjufeng nankai.edu.cn
  专题2
  Advances in Imaging,Perception,and Reasoning for
  High-Dimensional Visual Data
  专题内容
  High-dimensional visual data—such as event streams,light fields,hyperspectral and polarization images,depth sensing,and neural scene representations—are reshaping the landscape of multimedia research by providing richer spatial,temporal,spectral,and geometric information than conventional RGB videos.These modalities offer significant robustness in challenging conditions including fast motion,low light,adverse weather,and complex dynamics,yet they also introduce substantial challenges in sensing,reconstruction,alignment,compression,perception,and downstream reasoning.This special session brings together advances across the full pipeline of high-dimensional visual data,spanning novel sensing and computational imaging,efficient reconstruction and representation learning,multimodal scene understanding,and trustworthy reasoning in real-world systems.We welcome contributions that integrate physical priors with learning-based models,propose efficient or deployable system designs,or provide new datasets and benchmarks that deepen our understanding of how high-dimensional visual information can enhance multimedia analysis and applications.
  The Special Session on Advances in Imaging,Perception,and Reasoning for High-Dimensional Visual Data invites original research papers along the full pipeline from sensing and reconstruction to cross-modal perception and downstream reasoning.We welcome works on new imaging modalities,computational imaging,high-dimensional scene representations,multimodal understanding,and efficient or trustworthy reasoning systems.Accepted papers will be included in ICME 2026 and presented in the special session.Researchers from multimedia,computer vision,computational imaging,remote sensing,robotics and related communities are encouraged to submit.
  征稿主题
  Topics of interest include(but are not limited to):
  •Novel imaging sensors:event,light field,hyperspectral,polarization,depth,and holographic
  •RGB+X fusion:RGB–LiDAR,RGB–thermal,RGB–radar,audio–visual and related settings
  •Computational imaging:reconstruction,restoration and enhancement for high-dimensional data
  •Neural scene representations:NeRF,Gaussian splatting and related 3D/4D modeling
  •High-dimensional scene understanding:depth,flow,semantics and 3D/4D perception
  •Cross-modal registration,calibration and alignment for multi-sensor systems
  •Quality assessment and uncertainty estimation for high-dimensional or multimodal data
  •Foundation and vision–language models for high-dimensional or multimodal visual inputs
  •Efficient and edge-friendly models:compression,model–codec co-design and streaming
  •Multimodal reasoning and decision making with high-dimensional visual inputs
  •Benchmarks,datasets and simulators for imaging–perception–reasoning pipelines
  •Applications in transportation,AR/VR/MR,robotics,remote sensing and smart cities
  投稿须知
  Papers must be no longer than 6 pages,including all text,figures,and references.The abstract should be about 100-150 words.You can obtain more detailed information through this link:

https://2026.ieeeicme.org/author-information-and-submission-instructions/


  Important Dates:
  Paper Submission Deadline:December 31,2025
  Author Rebuttal period:February 22-26,2026
  Acceptance notification:March 16,2026
  专题组织者&联系方式
  Zeyu Xiao(National University of Singapore),Email:zeyuxiao1997 163.com
  Rui Zhao(National University of Singapore),Email:ruizhao26 gmail.com
  Vinh Van Duong(Samsung Research),Email:duongvinhyd gmail.com
  Jihyong Oh(Chung-Ang Universit),Email:jhoh94 gmail.com
  Shiqi Wang,(City University of Hong Kong),Email:shiqwang cityu.edu.hk
  专题3
  Emerging Technologies and Applications for Low-Altitude Multimedia Signal Processing[!--empirenews.page--]
  专题内容
  在无人机等空中系统的驱动下,低空经济正快速发展,并产生了海量复杂的多模态数据。由于独特的空中视角、动态运动特性以及严格的平台限制,处理此类数据面临巨大挑战。本专题旨在推动相关场景下的多媒体技术研究,诚邀鲁棒感知、多模态融合、场景重建、任务导向型及机载处理等前沿领域的创新成果投稿。
  征稿主题
  本专题旨在征集推动多媒体信号处理理论、算法、系统及应用(特别是针对低空平台与场景)发展的原创性成果。征稿范围包括但不限于以下主题:
  •目标检测、跟踪与分割
  •领域自适应与泛化
  •少样本与零样本学习
  •基于新型传感器的计算成像
  •多模态与跨模态数据融合
  •稠密建图与语义场景补全
  •自适应学习与持续学习
  •生成式人工智能与基础模型
  •具身人工智能与决策系统
  •新型数据集与基准评测
  投稿须知
  本专题征稿时间安排严格遵循ICME 2026大会统一安排,若有调整请以会议官网最新通知为准。
  论文提交:2025年12月31日
  录用通知:2026年3月13日
  终稿提交:2026年4月5日
  会议召开:2026年7月5-10日
  稿件需通过ICME官方CMT系统提交,在Subject Areas中选择Special Session:Emerging Technologies and Applications for Low-Altitude Multimedia Signal Processing。论文格式需严格遵循IEEE双栏模板,正文篇幅限制为6页。被接收的论文将收录至IEEE Xplore数据库,可实现全球检索。
  专题组织者&联系方式
  Cong Zhang(山东大学),邮箱:cong-clarence.zhang connect.polyu.hk
  Runmin Cong(山东大学),邮箱:rmcong sdu.edu.cn
  Qiang Li(西北工业大学),邮箱:qiangli nwpu.edu.cn
  Ivan V.Bajic(加拿大西蒙菲莎大学),邮箱:ibajic sfu.ca
  Alberto Del Bimbo(意大利佛罗伦萨大学),邮箱:alberto.delbimbo unifi.it
  Kin-Man Lam(香港理工大学),邮箱:kin.man.lam polyu.edu.hk
  专题4
  交互多媒体系统的具身感知
  专题内容
  多媒体系统的融合正在加速发展,本专题聚焦具身感知——强调通过主动环境交互实现真实世界多媒体采集、处理和理解——作为下一代交互多媒体应用的革命性范式转变。虽然基础模型已在统一研究框架内展示了可迁移能力,但将其融入具身多媒体系统仍面临重大挑战。本专题提供统一平台,推动视觉-语言-行动模型、多模态传感器融合以及移动平台资源高效感知的前沿进展,涵盖自主机器人、具身教育、远程呈现和智能环境等应用领域。通过探讨这些技术,我们旨在填补基础模型与物理世界的鸿沟,提升系统的交互性和适应性。具体而言,本专题将汇集原创研究,解决动态环境中的3D场景理解、鲁棒检测以及高效处理等核心问题,推动从被动感知向主动具身智能的转变,最终实现更具沉浸感和实用性的多媒体生态,支持教育、医疗、交通和娱乐等领域的创新部署。
  征稿主题
  本专题征集原创贡献,聚焦交互多媒体系统中具身感知的创新方法与应用,强调高效实现基础模型、多模态融合及与真实物理环境的对齐。主题包括但不限于以下方面:
  •具身感知的基础模型:针对移动平台的设计与优化,提升跨模态可迁移性
  •视觉-语言-行动融合模型:用于物理环境的交互式多媒体处理
  •移动平台的高效具身多媒体处理:资源受限下的实时感知与决策
  •交互多媒体测试系统:与真实物理环境对齐的动态环境适应与测试框架
  •动态环境中的3D场景理解与空间推理:多模态数据融合与鲁棒性提升
  •边缘-云协作开放计算与感知:分布式系统下的感知故障处理
  •不确定物理与传感器故障下的鲁棒检测:容错机制与异常恢复策略
  •具身AI在教育与医疗系统中的应用:自主导航与信号处理创新
  •具身中心医疗多媒体信号处理与远程医疗:实时诊断与交互支持
  •智能交通与自主车辆:多媒体驱动的决策与环境交互
  这些主题鼓励作者从理论到实践的全面探索,包括具身社交智能与多媒体内容生成,推动可解释AI、公平评估以及基准数据集的开发,以确保安全关键应用的可靠性和可重复性。
  投稿须知
  投稿请通过Microsoft CMT门户网站提交,严格遵循IEEE ICME 2026格式指南,论文长度不超过6页(

https://cmt3.research.microsoft.com/ICME2026/)。


  论文提交截止:2025年12月31日
  录用通知:2026年3月13日
  终稿提交:2026年4月5日
  作者注册截止:2026年4月25日
  会议召开:2026年7月5-9日
  更多模板与指南详见会议网站。投稿前请仔细检查格式,确保创新性和相关性,以提升接受机会。会议网站:

https://2026.ieeeicme.org


  专题组织者&联系方式
  Yang Liu(同济大学),邮箱:yangliu cs.toronto.edu
  Lei Zhang(同济大学),邮箱:reizhg tongji.edu.cn
  Liang Song(复旦大学),邮箱:songl fudan.edu.cn
  Jiangchuan Liu(西蒙弗雷泽大学),邮箱:csljc ieee.org
  Hong Chen(同济大学),邮箱:chenhong2019 tongji.edu.cn
  联系人:Yang Liu(yangliu cs.toronto.edu)
  专题5
  多媒体系统中的协作与分布式学习
  专题内容
  协作与分布式学习范式,包括联邦学习、边缘-云协作训练和去中心化优化,正在通过在数十亿边缘设备上实现隐私保护、通信高效的模型训练和推理,从而变革多媒体智能系统。随着多媒体数据生成的激增,传统的集中式云方法在可扩展性、隐私保护、通信效率和实时响应方面面临关键挑战。大型AI模型和基础模型的最新进展,特别是视觉-语言模型和多模态Transformer,需要新颖的协作分布式训练和推理策略,以在资源受限的边缘设备上部署强大模型的同时保持性能。本专题汇集先进的研究成果,展示协作分布式学习架构、算法和多媒体系统应用方面的前沿工作,涵盖理论基础、系统设计以及隐私保护视频分析、实时多模态内容理解、协作多媒体生成和边缘-云多媒体系统的实际部署。
  征稿主题
  我们邀请在多媒体系统协作与分布式学习方面的原创性研究工作投稿,包括但不限于以下方向:
  •生成式AI的分布式学习:扩散模型、GANs和多模态多媒体生成
  •边缘-云协作训练:面向视频、音频和图像理解应用的框架
  •异常检测与质量评估:分布式多媒体网络监控机制
  •大型AI模型和基础模型:在分布式多媒体智能系统中的部署
  •联邦学习范式:通信高效协议和异构数据分布
  •实时分布式推理:模型分区、自适应卸载和延迟优化
  •隐私保护学习:差分隐私、安全聚合和成员推理防御
  •跨模态知识迁移:联邦学习场景中的多模态融合
  •区块链安全学习:可信多媒体智能系统架构
  •具身智能:机器人系统和自主代理的分布式学习
  •能效分布式训练:面向电池供电边缘多媒体设备的策略
  •应用领域:视频监控、医疗影像、智能交通、元宇宙
  •基准数据集与评估:协议、公平性评估和可复现研究
  •可解释分布式AI:面向安全关键多媒体应用的可解释模型[!--empirenews.page--]
  投稿须知
  本专题征稿时间安排遵循ICME 2026大会要求,若发生调整,请以会议官网为准。
  论文提交:2025年12月31日
  录用通知:2026年3月13日
  终稿提交:2026年4月5日
  作者注册截止:2026年4月25日
  会议召开:2026年7月5-9日
  稿件通过ICME官方CMT系统提交,在Subject Areas中选择Special Session:Collaborative and Distributed Learning for Multimedia Systems。格式需遵循IEEE双栏模板,正文6页。
  专题组织者&联系方式
  Peng Sun(昆山杜克大学),邮箱:peng.sun568@duke.edu
  Jing Liu(英属哥伦比亚大学),邮箱:jingliu@ece.ubc.ca
  Yan Wang(华东师范大学),邮箱:yanwang@dase.ecnu.edu.cn
  Azzedine Boukerche(渥太华大学),邮箱:boukerch@site.uottawa.ca
  联系人:Jing Liu(jingliu ece.ubc.ca)
  ▼更多精彩欢迎关注▼
  征文通知|ICME 2026截稿延期至12月31日征文通知|ICME 2026专题征稿截稿延期至12月31日(Part1)封面文章|基于多模态大语言模型的自动驾驶框架DriveMLM编委精选|上海交通大学熊红凯等:基于无监督深度学习的图像重建研究综述编委精选|华东师大、P&G、新加坡南洋理工大学联合团队:基于高频注意力与贝叶斯算法无需人工标注的毛孔分割方法PS-Net

https://mp.weixin.qq.com/s/G_ZuygQDTuiOBtx2Yok70A






标签:

上一篇:“骏马贺岁·联韵奎文”庆祝奎文区楹联艺术家协会成立一周年暨第一届楹联书法作品征集大赛活动方案
下一篇:海林市举办“雪韵宁古塔•联墨贺新春”第二十九届春节楹联大赛活动的通知