📊 广泛评估表现: 在16个已知数据集中,DocLLM在多种文档智能任务中表现优越,对未见数据集具有强大泛化能力。
🔗 未来增强承诺: 摩根大通承诺以轻量级方式将视觉融入DocLLM,进一步提升其多模态文档理解能力。
比如将岩石样本放置在金属框架内,将其中心切开以模拟断层,并将其置于围压下,让局部传感器测量样品变形时发生的情况。
此外,有道还推出了虚拟人口语私教 Hi Echo2.0和有道速读,用于帮助学生提升英语口语能力和快速理解文档内容。
另外,BakLLaVA是使用LLaVA1.5架构增强的Mistral7B基础模型,已经在多个基准测试中优于LLaVA213B。这三种开源视觉模型在视觉处理领域具有极大的潜力。