袁一帆,博士,深圳大学人工智能学院助理教授、硕士生导师。分别于2025年和2019年在复旦大学获得计算机科学理学博士学位与物理学理学学士学位,师从张军平教授。
主要研究方向包括 AIGC、大模型、可信图像与视频编辑、多模态内容理解与生成、情感智能体。研究重点聚焦于生成与编辑任务中的可控性与一致性问题,如编辑精度、语义一致性、身份保持,以及大模型中的幻觉、偏见与安全风险。同时,探索生成模型在情感陪伴、虚拟试衣、数字人建模等高价值垂类场景中的落地应用。
袁一帆博士参与多项国家级与省部级科研项目,包括国家自然科学基金、国家重点研发计划、教育部项目等,并担任IEEE TIV、CVPR、ICML、AAAI、ACM MM等多个国际会议与期刊的审稿人。
🎓 教育背景
2019.09 – 2025.03 复旦大学 计算机科学技术 理学博士
2015.09 – 2019.06 复旦大学 物理学 理学学士
💡 研究兴趣
AIGC、多模态大模型、图像视频生成与编辑、情感智能体、虚拟试衣、3D生成、世界模型、具身智能
👭 实验室简介
袁一帆现领导 MUSE Lab(Multimodal Understanding and Synthesis for Explainability Lab)。实验室聚焦于AIGC、多模态理解与生成、大模型、知识检索增强(RAG)、人格化语言建模、情感智能体等前沿方向,旨在推动具备可控性、可解释性与可信性的智能agent研究与落地。
实验室采用灵活开放的科研机制,鼓励学生在科研、工程与创意交叉点上开展探索,欢迎志同道合的同学加入,一起打造有温度、有影响力的智能系统。
📢 招生信息
MUSE Lab 常年招收硕士研究生、本科生,面向对 AIGC、大模型、图像视频生成与编辑、多模态理解与生成、情感智能体、虚拟试衣、3D生成、世界模型、具身智能等方向感兴趣的同学。
💻 项目相关技术栈
1. 深度学习与生成模型框架:PyTorch, Diffusers, Transformers
2. 多模态理解与检索增强:CLIP, BLIP, Qwen-VL, RAG
3. 参数高效与指令微调:LoRA, PEFT, RLHF, Preference Alignment
4. 图像与视频生成编辑:Stable Diffusion, ControlNet, ViT, DiT, AnimateDiff, SVD
5. 3D生成与虚拟试衣:NeRF, 3D Gaussian Splatting, Virtual-TryOn
6. 世界模型与具身智能:DreamerV3, VLA, GenSim
7. 人格化与情感智能体:Persona LoRA, Memory-Augmented LLM
8. Prompt Engineering 与上下文编排:LangChain, LlamaIndex
✅ 我们希望你
1. 具备较强的编程能力
2. 有一定的深度学习基础(熟悉CNN,Transformer,Diffusion Model)
3. 对AIGC、大模型等方向有兴趣
4. 希望在真实科研项目中积累算法与系统开发经验
5. 有想法,有思考,逻辑能力和表达能力强
🙌🏻 你可以获得什么?
1. 自由的科研环境:本人23岁拿到博士学位,年轻活泼,MBTI为ESFP,风趣幽默,细心负责,擅长为学生提供全方位学习、科研、兴趣、生活支持。课题组氛围轻松自由,我的宗旨是“快乐是第一要义”,相信热爱可抵岁月漫长,源自内心的热爱定可以帮助我们做出有影响力的工作,因此鼓励支持你找寻自己感兴趣的研究方向;
2. 一对一指导:根据你的发展阶段定制支持路径。如果你更senior,我们会一起打磨你的leadership和mentorship 能力;如果你还比较junior,我会提供更多hands-on的技术训练与科研陪伴,无论你在什么阶段,都希望可以和你一起成长,一起快乐!
3. 优质的科研产出为目标:鼓励发表Nature子刊及CCF A类会议与期刊论文,提供全力指导;
4. 科研与应用并重:你将有机会探索大模型在真实场景中的落地应用,并帮助你与腾讯、阿里、字节、商汤、中国电信、中国移动等相关企业资源对接落地;
5. 多元发展:鼓励海外学术交流与跨界合作。除了平时扎实地做好科学研究,希望大家也可以一起多去探索生活看世界,看看艺术展,美术展,演唱会,结合艺术与科技,做出一些酷的东西!期待热爱研究和创新的你加入我的团队,共同推动智能视觉与创意技术的发展!
📩 加入方式
欢迎有志于探索AIGC的同学加入MUSE Lab!
请将简历发送至 yifanyuan@szu.edu.cn
邮件标题格式:“学校–姓名–年级–硕士生/本科生–研究兴趣”
邮件内容:附个人简历,可以简要描述你申请的动机、成绩排名和科研经历,你还可以写上你的创意、独特之处和优势。
📝 代表性科研成果
[1]Y. Yuan, G. Yang, J. Z. Wang, H. Zhang, H. Shan, FY Wang and J. Zhang. Dissecting and Mitigating Semantic Discrepancy in Stable Diffusion for Image-to-Image Translation. IEEE/CAA Journal of Automatica Sinica, 2025, 12(4): 705-718. [DOI: 10.1109/JAS.2024.124800] SCI IF: 19.3, Top 1 (Q1)
[2]Y. Yuan*, S. Ma*, H. Shan, and J. Zhang. DO-FAM: Disentangled Non-Linear Latent navigation for Facial Attribute Manipulation. IEEE International Conference on Acoustics, Speech and Signal Processing, 2023.
[3]Y. Yuan, S. Ma, and J. Zhang. VR-FAM: Variance-Reduced Encoder with Nonlinear Transformation for Facial Attribute Manipulation. IEEE International Conference on Acoustics, Speech and Signal Processing, 2022: 1755-1759.
[4] F. Xu,Y. Yuan, J. Zhang, and J. Z. Wang. Chapter 7: High-Speed Joint Learning of Action Units and Facial Expressions. Modeling Visual Aesthetics, Emotion, and Artistic Style. Berlin, Heidelberg: Springer Berlin Heidelberg, 2023.
[5] F. Xu,Y. Yuan, J. Zhang, and J. Z. Wang. Chapter 8: ExpressionFlow: A Microexpression Descriptor for Efficient Recognition. Modeling Visual Aesthetics, Emotion, and Artistic Style. Berlin, Heidelberg: Springer Berlin Heidelberg, 2023.
[6] G. Li,Y. Yuan, X. Ben, and J. Zhang. Spatiotemporal attention network for microexpression recognition. Journal of Image and Graphics, 2020, 25(11): 2380-2390. [DOI: 10.11834/jig. 200325]
🙇🏻♀️ 代表性科研项目
[1] 深圳大学青年教师科研启动经费,生成式图像编辑的可靠性评估与可控编辑机制研究,2025.08-2028.08,主持
[2] 上海市2024年度“科技创新行动计划”科普专项项目,面向青少年的人工智能科普中长视频的制作与推广,2024.09.01-2025.08.31,结题,参与
[3] 国家自然科学基金面上项目,基于图卷积神经网络和解耦学习的深度学习研究,2022.01-2025.12,结题,参与
[4] 上海市2021年度“科技创新行动计划”科普专项项目,人工智能前沿进展与应用的短视频科普,2021.06.01-2023.06.30,结题,参与
[5] 教育部项目,人机协同混合增强智能算法规划研究,2020.01-2021.12,结题,参与
[6] 横向项目,上海市中心气象台,基于机器学习的强降水预报技术开发项目,2020.03-2021.04,结题,参与
[7] 国家重点研发计划(十三五),基于示教模仿学习的人机协同关键理论与技术,项目编号2018YFB1305104,2019.06-2022.05,结题,参与
[8] 上海市科技创新行动计划,基于大数据深度学习的数值模拟误差自动订正技术,项目编号18DZ1200404,2018.04-2021.03,结题,参与
[9] 国家自然科学基金,基于机器学习的多模态多视角行人步态识别研究,项目编号61673118,2017.01-2020.12,结题,参与