参赛产品构想和讨论 - Bili-Sakura/AIGC-COMPETITION_VIVO GitHub Wiki

参赛产品构想和讨论

应用赛道作品构想

该竞赛面向全国高校在校学生,以vivo自研通用大模型矩阵为技术底座,助力AIGC应用创新和内容创作,携手青年开发者共同推动大模型前沿技术快速发展,实现AI普惠。 初赛必须提交:作品策划文档,提交格式PPT或doc 初赛选择提交:作品宣传海报、demo效果、部分源代码等

优先考虑的

vivo蓝心大模型文档 | 【Github】BlueLM

BlueLM 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,本次发布包含 7B 基础 (base) 模型和 7B 对话 (chat) 模型,同时我们开源了支持 32K 的长文本基础 (base) 模型和对话 (chat) 模型。

  • 更大量的优质数据:高质量语料库进行训练,规模达到了 2.6 万亿 的 token 数,该语料库包含中文、英文以及少量日韩数据;
  • 更优的效果:其中 BlueLM-7B-Chat 在 C-EvalCMMLU 上均取得领先结果,对比同尺寸开源模型中具有较强的竞争力;
  • 长文本支持:BlueLM-7B-Base-32K 和 BlueLM-7B-Chat-32K 均支持 32K 长文本,在保持基础能力相当情况下,能够支持更长上下文理解;
  • 协议说明:BlueLM 系列欢迎开发者进行学术研究和商业应用;

本次发布基座模型下载链接见:

基座模型 对齐模型 量化模型
7B-2K 🤗 BlueLM-7B-Base 🤗 BlueLM-7B-Chat 🤗 BlueLM-7B-Chat-4bits
7B-32K 🤗 BlueLM-7B-Base-32K 🤗 BlueLM-7B-Chat-32K 🤗 BlueLM-7B-Chat-32K-AWQ / BlueLM-7B-Chat-32K-GPTQ

欢迎阅读我们的技术报告BlueLM: An Open Multilingual 7B Language Model

我们后续将开源 13B 模型和支持多模态的 7B-vl 模型,还请期待!

AI原子能力

vivo AI原子能力矩阵,提供ASR、TTS、视觉技术、自然语言处理、LBS等能力,供参赛者自由组合,创新应用场景

小结

分析BlueLM的训练语料,让产品和BlueLM的主要能力对齐,
在其基础上发展并深度融合vivo AI原子能力

可以尝试的

  1. 通用游戏问答助手搭建工作流(工作流+应用程序+网页端)
  2. 和数据科学(我们研究方向)强相关的特定的下游任务,基于BlueLM通过微调得到SOTA模型
  3. 面向实际生活业务场景的产品,尤其是医学、金融、地图等高需求场景
  4. 可以建立完整工作流,收集和制作领域数据集进行微调
  5. 只把BlueLM作为学科/领域专家,输入文本问题获得文本回答,在BlueLM前后接入SOTA模型完成高难度场景

不应该做的

  1. Agent相关或理解难度过大的任务

BlueLM-7B/32B 模型能力无法支持Agent的Planning能力

  1. 脱离实际需求的/小众的

不符合竞赛主办方初衷

  1. 缺少评估标准的

选择的场景必须有现成的Benchmark用作模型能力测试,自建Benchmark不现实

主题1

基于网络爬虫技术以wiki为数据源的全领域对话机器人搭建工作流 关键词:网络爬虫,Wikipedia,Wiki Fandom,RAG,网页端,通用工作流

主题2

基于大语言模型的医学产品 关键词:生物医学图像处理,LLM

讨论