热点推荐词:

行业动态

数据治理与大模型一体化实践

文字:[大][中][小] 手机页面二维码 2023/12/19     浏览次数:    

  大模型落地到当前这个阶段,,,,核心关注点还是领域大模型,,而领域大模型落地的前提在于两点:需求端,,,,对当前应用的降本增效以及新应用的探索;供给端,,,训练技术已经有较高的成熟度。。。。

  降本增效方面,,,,以机器学习团队的构成为例,,滴普科技Deepexi产品线总裁柏海峰介绍道:“传统机器学习或者说小模型的技术落地,,对人才的要求很高,,,,但企业往往没有意识到这个问题。。具体来说,,,一般需要构建一个综合性的团队即数据科学团队,,团队中需要数据开发工程师、、、BI工程师、、、、商业分析师、、、数据科学家、、、算法工程师等岗位,,人力成本很高,,,,除了互联网、、金融行业的大型企业,,,传统企业或中小型企业很难组建这样的团队。。。。”

  人才要求高的原因在于,,不同岗位的技能差异非常大,,,,相关工具和技术栈也比较分散,,比如在某个具体应用领域的AI模型也是采用不同的算法,,,数据处理层面的pipeline,,很多时候自动化的实现也不够完善。。。。总之,,不同的钉子只能用不同的锤子,,而每一把锤子都不便宜。。。。

  因此,,,尽管小模型对算力、、、、数据要求没有那么高,,,,但要调出好的效果,,复杂度还是很高的。。。除了技术因素,,,在团队协作和业务适配方面,,,,也还有很多难题。。。

  “大模型带来的首要好处就是,,,它一下子把技术门槛拉低了,,,把整个技术栈从输入到输出的链条变得很短,,,原本需要很多人的数据科学团队,,变成只需要一个人加多个Copilot就可以完成,,,,这个人甚至可以是业务部门的,,这是非常有想象力的。。”

  训练技术方面,,,大模型一般都是先进行self supervised learning,,,构建通用大模型,,然后经过supervised fine-tuning训练,,,针对特定任务,,,构建领域大模型初版,,,最后通过RLHF训练,,,对齐人类价值,,,,完成类似于人类学习成长的解题、、、实习、、、社会工作三步曲。。

  其中后两步是大模型微调并构建领域大模型的主要步骤,,,,可以把训练前回答问题很散漫的通用大模型Llama 2 13B,,训练成专业性很强的chatbot——Llama 2 13B-chat。。


  微调可以减少大模型的幻觉,,,,增加模型输出的一致性、、、、专业性,,,,并且只需要通用模型训练的千分之一或者万分之一的数据量。。。

  需求端和供给端条件具备,,,,商业模式就有了雏形,,,,那么,,企业要发挥的作用就是,,效能建设。。。。

  01.

  效能建设:数据为道、、、模型为术

  效能建设的核心变量,,,,在于数据治理。。。但这个“数据”,,和大数据时代的“数据”,,,,内涵又有很大不同。。。

  传统的数据治理,,针对数据分析场景,,,,主要面向结构化数据,,包括主动元数据、、、AI增强治理等技术,,已成比较成熟的体系。。。

  而数据治理的新内涵,,面向大模型训练常见的非结构化数据。。。。

  非结构化数据治理的首要难题是,,,,高质量的领域数据获取的成本。。。。

  大模型微调的典型方法是instruction fine tuning,,也就是指令微调,,,ChatGPT和Llama 2都是指令微调的产物。。。。指令微调采用的数据,,,,就是prompt加上response的问答对,,,要么由更强大的大模型比如GPT-4生成,,要么由人工生成。。。

  进一步的微调强化还可以采用Explanation Tuning——解释微调,,,这是一种数据增强技术,,,,主要是通过成熟的大模型将对prompt的回答进行step by step的拆解,,从而获得更容易理解的数据。。这主要是基于这样的经验,,,,即提示大模型一步一步拆解问题并解答,,可以显著提高准确率。。此外,,,,还存在像Neftune这种通过将数据经过模型添加噪声之后再进行训练,,,,就能显著增加推理准确率的魔法一般的数据增强技术。。。。


  除了增强,,,AI模型也可以反过来帮助将杂乱的非结构化数据进行压缩提炼,,提取知识。。。。一般来说,,,,可以在公网中使用Claude2、、GPT-4、、、、GPT-3.5(ChatGPT),,,,以prompt的形式将数据进行信息提取,,,,就可以把大量的文档数据变成结构化的知识。。。。如果企业考虑到数据安全的问题,,,就可以在本地部署Llama 2 13B、、、、ChatGLM2 6B等本地大模型,,,,来处理这些文档。。。

  也就是说,,,,非结构化数据其实在很大程度上正在借助已有的成熟模型来处理,,,,其中包括了小模型和大模型。。。。

  “比如说在石化行业的数据有很大部分都是多模态的,,,,包括勘探钻井时收集的图像数据、、、、地震探测中收集的地理数据、、安全监控视频的数据、、、、物联网IoT数据等等,,,非常复杂。。。这些数据要得到利用,,,,就要通过小模型、、、大模型的技术从里面提取出显性的、、、隐性的知识,,,,从而能够让被训练的大模型也能够看懂,,,,这就是非结构化数据的治理方法。。。。”

  采用大模型、、、小模型来代替人力从非结构化数据中提取高质量数据,,,,可以极大降低人力处理的成本。。。。

  业内对大模型一直有着这样的质疑声音,,,,认为现在的大模型就是把小模型做过的事情重做一遍,,,,“但实际上,,,,大模型和小模型形成了层次更丰富的模型栈,,,,各自发挥所长,,才能把效率最大化。。。”

  不同规模、、、、不同能力的AI模型,,仿佛构成了一个内部生态。。。在训练时,,它们之间使用数据进行交流,,,,增强终端大模型的能力。。在推理时,,,,大模型又成了决策枢纽,,,,通过prompt的交流来规划任务。。

  02.

  数据集的平衡:准确率 vs 多样性

  数据集质量的评估是多维度的,,,需要平衡几项因素:灵活性、、、多样性和准确率。。。。

  其中,,,灵活性、、、多样性是指模型面对变化多样的prompt也能给出一致的回答,,这在通用大模型应用中很常见。。而领域数据之所以对质量要求高,,也是因为对准确率要求很高。。。。

  “比如Text to SQL这样的场景,,,,行业属性很强,,,,对准确率要求也很高。。。。目前行业相关应用的准确率普遍不高,,,,ChatGPT也不到80%。。。而准确率不超过80%,,,在生产环境是不能应用的。。。”

  此外,,,考虑到通用大模型的训练数据在灵活性、、、多样性上最高,,准确率最低,,小模型则相反,,,,领域大模型其实处于两者之间,,,,因此必须对这几项因素进行平衡。。

  滴普科技在实践中发现,,,,在训练数据集中如果领域数据集占30%,,,通用数据集占70%,,,训练出来的领域大模型更能够兼顾灵活性、、、、多样性和准确性。。。这个平衡又进一步降低了数据的总体获取成本。。


  03.

  数据类型:另一个维度

  数据类型的划分,,,除了质量,,,还可以从知识表示的形式进行划分,,,不同形式对应不同的训练方法。。。。

  数据或任务通常包含两大类型,,,第一种属于重表示型,,比如把对Java线程的解释进行重新表述,,第二种属于知识问答型,,,比如如果不知道授信额度的准确定义,,,就无法回答一些相关知识问答。。。


  相比之下,,第二种任务对模型的要求更高,,,因为有知识增量,,,需要对模型参数进行较大的调整。。

  针对第一种任务,,模型微调常采用高效微调的方式,,,,比如LoRA、、、QLoRA、、、、P-tuning等,,,保留大模型原有参数,,在模型前方或后方添加新的神经网络层以改善推理,,成本更低;针对第二种任务,,,,则采用全参微调的方式,,,,对硬件要求高,,,,主要在于内存量,,,,比如Llama 2 13B的全参微调至少需要一块80G内存的A800,,,Llama 2 7B则至少需要一块24G内存的RTX4090,,,才能完成训练,,并且为防止过拟合,,对数据集的要求也更高。。。。


  领域大模型偏重知识型任务,,,一般而言全参微调是必不可少的。。。但任务本身也分层次,,,底层是统计分析型,,顶层是预测型。。。统计分析型任务更基础,,,,对准确性要求高,,,比如文本分类、、、、意图识别、、、实体关系提取等,,,,预测型相比之下对准确性要求更低一些。。

  这在Text to SQL任务中也有体现,,,,“统计分析是what happen,,,预测分析是why happen,,,后者的准确率一般没法达到100%。。。。”

  当然,,,要求是一方面,,,收益是另一方面,,,如果在高级任务中能获得更强的能力,,,也将成为领域大模型的技术壁垒,,,,为此,,,在滴普科技的5维模型基础能力评估模型中,,,把理解偶一、、、句法分析能力等高级能力维度放到了更高的权重。。

  04.

  产品体系:效率、、、性能与体验兼顾

  所以,,,效率是一方面,,,性能是另一方面。。。。企业做产品,,,,除了提升效率来保证落地,,,,也要在保证效率前提下提升性能,,,,才能最大程度上保证用户体验。。

  比如,,,Text to SQL产生的SQL语句是让大模型来执行还是让传统工具来执行,,,也是个问题,,”现在常见的大模型演示中,,,,人们都是上传一个数据集,,,让大模型去分析,,,,但这其实跟真实场景差距太远了。。。。真实场景面对的数据集不是一个5-30M的Excel或CSV文件,,,,而是一个包含几万张表、、、、几十亿条记录的数据湖,,,,在做统计的时候,,,,也会涉及到join这种复杂的表关联计算。。真的让大模型面对这样的场景,,,可能直接挂机。。。但大模型迟早要面对这个问题,,,不然仍然是一个实验室的玩具。。。。“

  为解决这个问题,,,,首先需要将大模型从GPT-4转向本地大模型,,,,这时准确率可能急剧降低,,,,“40%-50%都算高的。。。”为了克服底层逻辑的复杂性,,,滴普科技开发了一个分析引擎MQL(metric query language),,其可以统一连接多样的数据库引擎比如MySQL、、、Hive、、、、ClickHouse等等,,,,“MQL通过灵活的选维度,,生成中间的MQL代码,,,,从而高性能地完成加速查询并毫秒级返回。。。所以,,,,我们的解题思路不是Text to SQL,,,而是Text to MQL,,,因为MQL已经把不同数仓的差异性进行了统一。。在这个架构下,,,,只要对模型做一定的微调,,,,Text to SQL的准确率是可以达到100%的,,而不仅仅是保证生产环境可行。。”

  这些方法论最终体现在滴普科技的大模型产品规划上。。。。

  为兼顾效率、、、、性能和体验,,滴普科技规划了完善的产品体系,,,“我们从多个维度规划了大模型产品体系。。。。第一个维度是算力基础,,,,大模型的预训练、、、微调的算力开销很大,,但客户普遍算力资源不足,,,同时不知道如何在硬件上部署什么样的大模型,,以及如何部署。。为此,,,我们提供的Fast5000E训推一体机,,从硬件到模型完全整合到一起提供给客户,,,,客户只需要考虑场景适配和应用就可以了。。。。虽然算力规模不大,,,远低于互联网大公司的算力,,但对于大部分企业而言已经足够。。。”

  然后,,,在算力基础之上,,,,为了在应用层面提升效率,,,降低开发门槛,,滴普科技开发了FastAGI智能体平台,,,“可以理解成是一个Agent或智能体开发平台,,,该平台用于快速构建大模型工具链。。。。我们提供了易于使用的开发工具,,,,可以快速构建智能体能力。。。目前我们已经有了可以做高级数据分析的Data Agent,,,有处理非结构化数据的Doc Agent,,,,还有一些用于扩展企业内部应用的Plugin Agent等等。。。。除了这两个核心产品,,,,滴普科技也会基于具体的业务场景帮助客户定制解决方案,,,比如在Data Agent之上做数据分析的Copilot、、、、供应链智能助手等。。“

  这些成果体现了滴普科技顺应大模型落地趋势的认知,,,,也反映了滴普科技在延展数据治理内涵上的努力。。。

  数据治理的新趋势,,是治理手段的技术化、、、工具化、、、、一体化,,,,“一方面,,,对于规模相对较小的客户,,传统的自顶向下的数据治理方法,,周期长、、、见效慢。。一般来说,,都需要先规划,,,,请咨询公司帮忙把相关标准、、规范、、、流程、、制度确立,,然后再进行内部运营。。这种做法在大公司里没问题,,,但并不适合小公司。。。另外,,,大模型的数据治理还涉及非结构化数据的处理,,非结构化数据和知识之间有很大的gap,,,专业门槛也很高。。。。”

  因此,,,,滴普科技提倡数据治理要从传统数据治理走向敏捷数据治理。。。在与Gartner联合发布的《企业级数据治理体系建设指南》白皮书中,,,,滴普科技明确提出,,,,要将数据开发与治理一体化,,在开发环节将治理动作执行到位,,,从根源上保证数据质量,,,,同时在大模型时代将数据治理内涵进一步延伸至非结构化数据,,持续提高数据的治理质量、、广度和效率。。

  05.

  领域大模型的成本经济学

  滴普科技在大模型落地实践中,,,将数据治理方法论进一步拓展,,对数据质量、、、、特性的评估建立了准确率、、、、多样性、、统计型、、、、预测型等维度,,进而用于指导领域大模型的高效低成本训练,,同时追求性能和用户体验的极致,,规划了系统性的产品体系。。这不仅是领域大模型的成本经济学,,,也将成为滴普科技未来持续推进大模型落地应用的重要原则。。。。

返回上一步
打印此页
[向上]
站点地图