面向审计行业的大模型融合部署技术方案研究
发布者:sjcadmin发布时间:2025-03-24浏览次数:10
在数字经济时代背景下,审计行业正经历从经验驱动向数据智能驱动的范式转变。当审计凭证跃迁云端数据库,抽样检查转变为全量分析,审计行业正经历“计算机辅助审计”向“智能算法审计”的跨越式转型,人工智能正以前所未有的态势重塑审计行业的底层逻辑架构。这场以大模型为驱动的智能化变革,不仅促进审计效率的指数级提升,而且还将引发行业生态的重构转型。本研究结合南京审计大学自主研发的AuditNova审计大模型与深度求索公司的DeepSeek通用大模型,构建融合部署技术体系,旨在破解审计智能化转型中的核心难题。DeepSeek作为一款通用大模型,以其强大的技术架构和广泛的应用场景著称。它具备高达671B参数的规模,能完成复杂数学推理、编程辅助、长文本分析等高难度任务,展现出卓越的跨领域通用能力。通过强化学习(RL)和模型蒸馏技术,DeepSeek显著降低了训练成本,并以开源代码和API开放的形式推动低门槛AI应用。其高效推理能力和对边缘计算的支持,使其特别适合预算有限但需要大规模算力的中小企业。此外,DeepSeek在高校教学、科研管理、论文速读等领域得到了广泛应用,体现了其高性价比和扩展性。然而,尽管DeepSeek在通用性方面表现出色,其在审计领域的专业知识处理上存在明显不足。例如,对于问题定性、合规审查等专业逻辑的深度理解,DeepSeek难以满足审计行业对逻辑一致性和结论可信度的严格要求。这使得DeepSeek在面对审计领域的复杂任务时,往往需要引入外部知识库进行补充。审计专业领域外挂知识库建设是集知识工程与数字化转型于一体的系统性工程,其复杂程度和专业要求远超常规信息系统建设。以中国石化、国家电网为代表的中央企业经过近十年的持续投入,仍处于知识库建设的深化完善阶段。这充分说明审计知识体系的构建需要遵循知识沉淀-结构转化-智能应用的螺旋式演进规律,具有明显的长期性、专业性和渐进性特征。为了保证审计知识的准确性,我们采用大量专业人员“手工标注”的方式提高数据质量,同时构建专业审计“知识图谱”来确保知识的准确性。AuditNova大模型(中文简称审元)是由南京审计大学自主研发的国内首个审计行业专用大模型,实现了人工智能技术与审计专业逻辑的深度融合。它基于南京审计大学40余年的学科积累,创新性地结合了图神经网络与多模态推理架构,构建了超百万审计实体和千万级关系的知识图谱。通过“知识图谱+规则引擎+概率推理”的三重验证机制,AuditNova大模型显著提升了审计结论的可信度,并支持动态知识演进,能及时应对审计准则与法规的变化。其典型应用场景包括审计问题定性、审计案例推荐、合规风险评估和审计证据链生成,展现了高度的专业溯源性和行业适配性。DeepSeek与AuditNova的融合具有重要意义。DeepSeek的通用性使其能够为AuditNova大模型提供强大的技术支持,例如在复杂数据处理、长文本分析等方面发挥优势;而AuditNova大模型则可以通过其深厚的行业知识和专业逻辑,弥补DeepSeek在审计领域的短板。两者的结合不仅能够实现通用模型与垂直模型的优势互补,还能推动AI技术在审计领域的深度赋能,形成“通用技术+专业能力”的双轨发展格局。这种融合模式将有助于构建更加智能化、标准化的审计解决方案,为行业发展注入新的活力。一、AuditNova+DeepSeek部署技术方案DeepSeek作为通用大模型,具备强大的跨领域通用能力,而AuditNova大模型则专注于审计领域的专业逻辑与知识图谱构建。两者的融合能够实现“通用技术+专业能力”的优势互补,为审计行业提供更智能化、标准化的解决方案。以下三种可行的部署方案。(一) 满血版DeepSeek + AuditNova知识库该方案的部署主要包括两个过程:满血版DeepSeek的部署以及AuditNova知识库的集成。其中满血版DeepSeek的部署可以直接参照DeepSeek的官方文档进行,而AuditNova知识库的集成主要借助于RAG框架(如ragflow、Dify等)实现。该方案的核心是将满血版DeepSeek(671B参数)直接与AuditNova大模型的知识库结合。满血版DeepSeek作为通用大模型,负责处理复杂任务(如财务报表数据清洗、长文本分析),而AuditNova大模型的审元知识库则提供审计领域的专业知识支持。具体部署技术过程,首先通过部署满血版DeepSeek,实现了对大规模财报数据和多模态信息的高效处理能力,这得益于DeepSeek内置的复杂数学推理和长文本处理功能。其次为了弥补DeepSeek在审计领域专业知识的不足,方案巧妙地接入了AuditNova大模型的知识图谱,实现了“通用+专业”的完美结合。此外,该方案还充分利用了审元知识库动态更新的特性,确保知识图谱能够实时同步最新的审计准则和法规,从而保持方案在处理审计任务时的时效性和准确性。该方案不足之处在于硬件算力依赖程度高,通常需要具备超算级硬件资源,主要适合于具备充足算力预算的央企、国企审计机构或政府审计部门。同时,由于其主要的分析处理能力主要依赖于满血版Deepseek本身,模型部署后容易相对固化,后续调整和优化较为困难。此外,对于复杂逻辑的审计业务需求,需开发中间层协议,解决通用模型与专业知识库的语义对齐问题,避免逻辑冲突。该方案的部署包括两大过程。首先是构建融合模型,该步骤主要以目前官方蒸馏后的DeepSeek-R1(如14B/32B等)为基础,借助DeepSeek的蒸馏框架,进一步蒸馏AuditNova大模型,将审计专业知识融入其中,最终形成既具备通用能力,又融合审计领域专业知识的融合模型。紧接着类似方案1,通过RAG外挂知识库的方式,提供审计准则与法律法规等相关审计知识的动态更新,确保模型能够应对政策变化和审计行业的需求。该方案最终部署的为蒸馏后的融合模型,实现了轻量化部署,显著降低了对硬件的依赖,使其能够在普通服务器或边缘设备上高效运行,从而大幅减少了部署成本。此外,该模型采用蒸馏技术,成功地将AuditNova大模型的专业知识融入其中,形成了一个既具备通用性又兼具专业性的综合模型。这一知识融合的特性使得DeepSeek能够应对多种场景的需求。更令人称道的是,其外挂知识库支持动态扩展,确保模型能够紧跟政策变化和行业需求,保持时效性和实用性。该方案不足之处在于蒸馏过程中也面临一些挑战。AuditNova大模型的知识图谱和规则引擎涉及复杂的行业逻辑,这可能导致在蒸馏过程中部分专业知识丢失,进而影响模型的精度。此外,多次蒸馏需要额外的训练时间和资源,尤其是在审计领域专业知识迁移的过程中,可能面临数据稀缺和技术上的挑战,从而增加了训练成本。另外,一旦蒸馏完成,模型的结构便相对固定,这限制了后续对模型进行调整和优化的灵活性,可能给长期维护和升级带来一定困难。(三) “AuditNova+DeepSeek”协同智能体技术是目前大模型发展、特别是垂直应用的重要方向,为支持灵活复杂的审计业务,可以基于智能体技术,实现AuditNova+DeepSeek的双模型协同工作。具体来说,其部署主要包括两个过程:模型的部署和审计业务智能体的构建。模型的部署可以根据需要,选择相应的模型,直接参考DeepSeek和AuditNova大模型的官方手册按步骤依次部署即可。对于智能体的构建,目前很多RAG框架(如ragflow、didy等)已经集成了智能体功能,并提供图形智能体部署功能,因此可以直接部署这些支持智能体的RAG框架,这样不但能够实现“AuditNova+DeepSeek”的协同工作,而且还可以扩充和更新审计知识,提高整个智能体的适应能力。在该方案中,DeepSeek和AuditNova大模型的分工明确,DeepSeek负责通用任务(如数据清洗、长文本分析),AuditNova大模型专注于审计专业任务(如财务异常检测、合规审查)。各自发挥所长,有效避免了单一模型负担过重的问题,从而显著提升了整体系统的效率。同时,这种设计赋予了系统高度的灵活性,允许两个模型独立运行并根据实际需求进行灵活调整和升级,无需对整个系统进行繁琐的重新训练。此外,该方案可以使用蒸馏后的模型,以降低对硬件的要求,使其能够在普通服务器上顺畅运行,非常适合中小企业及边缘计算的应用场景。而且,系统外挂的知识库也可实时更新,确保模型能够紧跟政策变化和审计行业需求,实现动态扩展。该方案不足之处首先在于两个模型的集成复杂度较高,需要精心设计高效的协同机制(例如API接口、消息队列等),以确保数据流和任务分配的无缝衔接,这无疑增加了系统设计的难度。其次由于两个模型独立运行,在某些特定场景下可能会产生额外的通信延迟,从而影响系统的实时性能。最后智能体技术的引入虽然增强了系统的功能,但也相应地提高了系统开发和维护的复杂性,导致初期的开发成本相对较高。
表1 三种部署方案对比
方案 | 满血版DeepSeek + AuditNova知识库 | 融合模型+外挂知识库 | AuditNova+DeepSeek协同 |
技术 实现 | - 使用RAG技术,将审元知识库和新的审计知识作为外部数据源。 - Deepseek负责语言理解和生成,审元知识库提供专业背景信息。 | - 在Deepseek蒸馏模型的基础上,用审元知识库微调融合模型。 - 使用RAG技术,将更新的审计知识作为外部数据源。 | - 单独部署Deepseek和审元,对外提供API访问服务。 - 基于智能体框架,融合RAG技术,根据审计业务需要开发相应的协同智能体。 |
优势 | - 快速上线。 - 充分利用满血版大模型强大的推理能力。 - 通过定期更新知识库,确保内容时效性。 | - 轻量化部署。 - 知识融合。 - 通过定期更新知识库,确保内容时效性。 | - 轻量化部署 - 灵活性和扩展性强。 - 支持复杂任务分解与多智能体协作。 |
劣势 | - 硬件依赖高。 - 灵活度低。 | - 蒸馏微调成本高。 - 灵活性不足。 | - 延迟问题。 - 开发成本较高。 |
三种方案的对比情况如表1所示。如果目标用户是大型机构且预算充足,可以选择方案1 ,充分利用满血版DeepSeek的强大能力。如果需要轻量化部署并兼顾成本,建议采用方案2 ,通过蒸馏技术实现通用性和专业性的平衡。如果追求灵活性和可持续性,方案3 是最优选择,通过智能体技术实现AuditNova与DeepSeek大模型的高效协同,满足动态扩展和多任务需求。综上,对有实力的企业,可采取第一方案,但从长远来讲,本文还是主张智能体的建设。为验证以上方案的可行性,可以结合自身的实际需求,选择相应的软硬件环境进行适配。表2给出了三种方案的基本配置,表3 给出了不同版本Deepseek的模型参数及基本部署显卡需求。在硬件上,“满血版Deepseek +AuditNova知识库”方案对硬件要求较高,适用于高性能场景,需要多节点分布式部署。非国产化环境下可以使用16块A100或H100显卡(单块显存80G),国产化环境下可以使用32块华为昇腾910B显卡(单块显存64G),同时配备64核以上服务器集群CPU,512GB~1TB的内存,以及1TB的SSD高速硬盘,以保障审元知识库等其他相关模块的融合。“融合模型+外挂知识库”方案和“AuditNova+DeepSeek协同”方案硬件需求相对较为灵活,可以根据需要选用不同参数大小的Deepseek。表2中“融合模型+外挂知识库”方案是以32B蒸馏版的Deepseek为例,给出的基本配置。进行非国产化环境可以使用4块RTX4090显卡(单块显存24GB)或2块A100显卡(单块显存40GB),国产化环境可以使用2块64GB的昇腾910B显卡,对于CPU、内存和硬盘,使用主流服务器配置即可。表2中“DeepSeek + AuditNova协同”方案是以32B蒸馏量化版的Deepseek为例,给出的基本配置,AuditNova大模型也是32B量化版本。由于该方案重点在于智能体的审计逻辑设计,可以先采用轻量级的部署,根据实际业务的复杂度再逐步调整部署的模型参数大小及方式。
表2 不同部署方案的软硬件配置情况
方案 | 满血版DeepSeek + AuditNova知识库 | 融合模型+外挂 知识库 | AuditNova+DeepSeek协同 |
硬件 | GPU需求 | 非国产化:多节点分布式部署(16xA100/H100,单块显存80G); 国产化:多节点分布式部署(32x昇腾910B,单块显存64G); | 非国产化:4xRTX4090 24GB或2xA100 40GB 国产化:2x昇腾910B (注:此处未包括蒸馏融合模型的开销) | 非国产化:2xRTX4090 24GB 国产化:1x昇腾910B |
CPU需求 | 64核以上服务器集群 | 32核以上 | 32核以上 |
内存需求 | 512GB~1TB | 64GB以上 | 64GB以上 |
存储需求 | 10TB SSD | 1TB SSD | 1TB SSD |
软件 | 大模型部署框架 | vLLM、ollama | vLLM、ollama | vLLM、ollama |
RAG框架 | RAGFlow、Dify | RAGFlow、Dify | Dify、LangGraph、RAGFlow |
表3 不同版本Deepseek的模型参数及基本部署显卡需求
版本 | 名称 | 参数(亿个) | 数值类型 | 模型大小(G) | 模型格式 | 发布者 | 部署要求 |
满血版 | DeepSeek-R1 | 6710 | BF8 | 700 | safetensors | DeepSeek | 8*Nvidia H200 (141G) 16*Nvidia A100/H100(80G) |
满血量化版 | deepseck-R1:671B | 6710 | BF16 | 1300 |
| 参考昇腾官网操作指南 | 32*昇腾910B(64G) |
满血量化版 | deepseck-R1:671B | 6710 | INT4 | 404 | GGUF | ollama | 8*Nvidia H100(80G) 8*昇腾910B(64G) |
蒸馏版 | DeepSeek-R1-Distil-Llama-70B | 700 | BF16 | 150 | safetensors | DeepSeek | 8*4090(24G) 4*昇腾910B(64G) |
DeepSeek-R1-Distil-Qwen-32B | 320 | 66 | DeepSeek | 4*4090(24G) 2*昇腾910B(64G) |
DeepSeek-R1-Distil-Qwen-14B | 140 | 30 | DeepSeek | 2*4090(24G) 昇腾910B(64G) |
DeepSeek-R1-Distil-Llama-8B | 80 | 16 | DeepSeek | PC |
DeepSeek-R1-Distil-Qwen-7B | 70 | 15 | DeepSeek | PC |
DeepSeek-R1-Distil-Qwen-1.5B | 15 | 3.5 | DeepSeek | PC |
蒸馏量化版 | deepseck-r1:70b | 700 | INT4 | 43 | GGUF | ollama | 2*4090(24G) 昇腾910B(64G) |
deepseek-r1:32b | 320 | 20 | ollama | 4090(24G) 昇腾910B(64G) |
deepseck-r1:14b | 140 | 9 | ollama | PC |
deepseek-r1:8b | 80 | 4.9 | ollama | 移动端或PC |
deepseek-r1:7b | 70 | 5 | ollama | 移动端或PC |
deepseek-r1:1.5b | 15 | 1.1 | ollama | 移动端或PC |
在软件方面,所有方案均可以采用vLLM和ollama作为大模型部署框架,同时利用RAGFlow、Dify等RAG框架集成不断更新的外挂审计知识库支持。对于最后一种方案,可以引入了LangGraph等专业的智能体框架以增强两个模型协同工作的能力。使用者可根据实际需求选择适配,以满足不同场景下的性能和成本要求。AuditNova+DeepSeek的部署技术方案不仅意味着技术工具的升级,更标志着审计行业从“经验驱动”到“数据+算法驱动”的范式革命。随着技术红利持续释放,审计机构需同步构建“AI就绪”组织体系(包括人才培养、流程再造、伦理治理),方能在智能时代赢得战略先机。
作者:徐超 周立云
单位:南京审计大学计算机学院 中国石油化工集团有限公司审计部
来源:审计观察