行行AI人才直播第8期:新加坡国立大学在读博士生张傲《多模态大语言模型(MLLM)的简介及高效训练》

随着 ChatGPT 在各领域展现出非凡能力,多模态大型语言模型(MLLM)近来也成为了研究的热点,它利用强大的大型语言模型(LLM)作为“大脑”,可以执行各种多模态任务。更让人感慨的是,MLLM 展现出了传统方法所不具备的能力,比如能够根据图像创作故事,无需 OCR 的数学推理等,这为实现人工智能的通用智能提供了一条潜在路径。

为此,行行AI人才特邀新加坡国立大学在读博士生张傲老师,给大家带来《多模态大语言模型(MLLM)的简介及高效训练》课程,通过直播为大家讲解”现有MLLM的架构设计、训练流程、数据选取,并介绍如何通过迁移学习的方式快速构建新的MLLM。”感兴趣的同学提前预约直播前排观看哦!

张傲老师,新加坡国立大学二年级博士生,研究方向为多模态学习,导师为Chua Tat-Seng。曾在ICCV, ECCV, EMNLP等顶会发表多篇论文。代表工作有超大规模场景图生成方法IETrans (ECCV 2022 Oral),多模态提示学习方法colorful prompt tuning (CPT)

7月8日周六晚20点,跟随张傲老师了解多模态大语言模型(MLLM)及高效训练!

线上直播课操作指引:
1、 扫码添加行行人才小秘书,授课当天为您推送课程链接,课程结束后为您发放课件和回放链接
2、开课前会收到行行人才小秘书发送的“会议提醒”点击链接也可进入直播间

posted @ 2023-07-07 22:50  博客园团队  阅读(1012)  评论(0编辑  收藏  举报