并行文本世界中的LLM训练的多模态Agent
图1:ALFWorld视觉环境中三种基于VLM的代理的比较。给定任务指令和当前步骤观察作为输入,VLM代理预计将预测一个动作,例如“进入机柜1”,以完成任务。(a)GPT-4V(视觉)。(b) InstructionBLIP通过在视觉模拟器中由基于规则的专家在静态演示数据集上进行行为克隆来进行微调。(c) 我们的化身多模式
图1:ALFWorld视觉环境中三种基于VLM的代理的比较。给定任务指令和当前步骤观察作为输入,VLM代理预计将预测一个动作,例如“进入机柜1”,以完成任务。
(a)GPT-4V(视觉)。(b) InstructionBLIP通过在视觉模拟器中由基于规则的专家在静态演示数据集上进行行为克隆来进行微调。(c) 我们的化身多模式代理(EMMA)通过从LLM专家那里进行的跨模式交互式模仿学习进行训练。
图2:为两个平行世界生成的任务示例。一个在视觉世界中的VLM代理和一个在文本世界中的LLM代理,作为家用机器人被指示清洁苹果,然后将其放入冰箱。放大查看更多详细信息。
图3:LLM专家通过跨模态模仿学习训练的多模态代理(EMMA)。EMMA将文本任务指令和像素观测作为其每一步的输入状态,以使用VLM生成动作序列。然后,我们将每个像素观察转换为文本等价物,作为LLM专家的上下文,以产生改进的动作供EMMA模仿。
参考文献链接
https://arxiv.org/pdf/2311.16714
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
2023-05-30 车辆横向与纵向控制
2022-05-30 GPU与cuda技术协调
2021-05-30 自动驾驶算力效率
2021-05-30 昇腾AI 软硬件全栈平台
2021-05-30 TVM性能评估分析(七)
2021-05-30 TVM性能评估分析(六)
2021-05-30 TVM性能评估分析(五)