三叶智擎 AI 平台
三叶智擎 AI 平台
所属企业:三子叶科技有限公司
平台定位:面向企业级用户的全栈 AI 开发运营平台,以 “数据驱动、算力协同、智能落地” 为核心,覆盖 AI 全生命周期,助力企业快速实现从数据到模型、从开发到部署的端到端智能化转型。
一、平台简介
三叶智擎 AI 平台(Tri-Leaf MindEngine AI Platform)是三子叶科技基于 “多维度协同、全链路智能” 理念打造的企业级 AI 基础设施。平台以 “三叶” 为核心意象 —— 分别对应数据驱动叶(数据管理体系)、算力支撑叶(基础能力与资源调度)、智能落地叶(开发 - 训练 - 部署全流程工具),三大模块协同联动,为金融、制造、互联网、政务等多行业提供 “安全可控、高效灵活、低成本落地” 的 AI 解决方案。
无论是 AI 基础薄弱的传统企业(通过 “自动学习” 快速入门),还是具备高阶研发能力的科技团队(通过 “自定义算子 / 镜像” 实现创新),均可通过三叶智擎实现 AI 能力的快速搭建与规模化应用。
二、核心功能模块
1. 基础能力:筑牢 AI 底座(算力支撑叶核心)
作为平台的 “算力与管控中枢”,基础能力模块为所有 AI 业务提供安全、可控、弹性的运行环境,核心功能包括:
| 功能分类 | 核心能力清单 |
|---|---|
| 项目组与权限管理 | 按项目划分资源边界,配置用户权限(角色 / 任务挂载 / 资源组绑定),支持项目组内角色精细化应用 |
| 网络与访问 | 支持非 80 端口、公网 / 域名访问,提供反向代理 / 内网穿透,默认启用 HTTPS 加密传输 |
| 用户与权限体系 | 管理用户基本信息与组织架构,基于 RBAC 模型实现权限管控,记录所有操作(增删改 / 清理)历史日志 |
| 计量计费与资源限制 | 支持租户 / 项目组 / 个人三级资源限制(开发 / 训练 / 推理资源),覆盖 Notebook、Pipeline、推理服务等场景;提供资源使用监控与自定义计费模式 |
| SSO 单点登录 | 支持账号密码自动登录,对接企业级账号体系(AUTH_OID/AUTH_LDAP/AUTH_REMOTE_USER),支持消息推送;强化安全策略(强密码 / 登录频率限制 / 密码密文传输) |
| 多算力与芯片适配 | 支持 CPU/GPU(T4/V100/A100)、国产芯片(海光 DCU / 华为 NPU / 寒武纪 MLU / 天数智芯 GPU)、ARM64 架构;支持 vGPU 共享 / 独占模式、RDMA 调度(Mellanox) |
| 多集群部署 | 支持多资源组划分、多 K8s 集群管理(IPVS 网络模式)、边缘集群(开发 / 训练 / 推理)、Serverless 集群(腾讯云 / 阿里云,覆盖 Notebook/Pipeline/ 推理服务) |
| 存储与数据库 | 支持外部分布式存储挂载(NFS/CFS/OSS/NAS/COS/GlusterFS/CephFS/S3/MinIO);支持外部 MySQL/PostgreSQL 作为元数据库 |
| 机器与存储盘管理 | Web 界面可视化控制机器调度类型、资源组归属、RDMA/vGPU 启用状态;支持存储盘绑定项目组,直接挂载至 Pod 内 |
| 国际化支持 | 内置多语言配置,当前支持中英文切换 |
2. 数据管理:激活数据价值(数据驱动叶核心)
作为 AI 开发的 “数据源头”,数据管理模块提供从数据接入、处理到标注的全流程工具,确保数据高质量支撑模型训练:
| 功能分类 | 核心能力清单 |
|---|---|
| 数据地图 | 管理元数据库表、业务指标、维表,实现数据资产可视化与快速检索 |
| 数据计算 | 提供 SQL 交互查询环境(SQL Lab),支持 MySQL/PostgreSQL/ClickHouse/Hive/Presto 等主流计算引擎 |
| ETL 编排 | 支持数据 ETL 任务流可视化编排与管理,对接企业数据中台计算 / 调度引擎,实现数据自动化清洗与同步 |
| 数据集管理 | 支持多模态样本集(图片 / 音频 / 文本)上传,提供 SDK 对接外部数据集;内置 “一键数据探索” 功能,快速分析数据分布与质量 |
| 数据标注 | 集成多模态标注平台(图 / 文 / 音 / 多模态),支持自动化标注(需对接 AIHub):- 计算机视觉:目标识别 / 边界框 / 遮罩识别 / 图片分类 / 描述 / OCR / 关键点检测- 自然语言:文本分类 / 翻译 / 命名实体识别 / 阅读理解 / 问答 / 摘要提取 |
3. 开发环境:降低开发门槛
提供灵活、易用的在线开发工具,适配不同技术栈开发者,打造 “即开即用” 的 AI 开发体验:
| 功能分类 | 核心能力清单 |
|---|---|
| 镜像管理 | 内置镜像仓库,支持在线构建镜像(Dockerfile 编辑);提供模板镜像 / 服务镜像 / Notebook 镜像 / GPU 基础环境的构建方法;支持同一仓库多秘钥配置 |
| Notebook 开发 | 基于 JupyterLab/VSCode 打造在线 IDE,支持:- 多环境选择(大数据 / 机器学习 / 深度学习版本,含 HDFS/Hive/Spark 客户端)- 远程开发(SSH Remote / 隧道代理)- 多语言支持(Python 2.7/3.6-3.10/R/Julia/Matlab/RStudio)- GPU/CPU/ 内存监控、Git 交互、TensorBoard 可视化- 自定义镜像封装、整卡 / 虚拟卡 / GPU 共享占用、环境自动初始化 |
4. 模型训练:提升训练效率(智能落地叶核心)
提供从任务编排到模型优化的全流程训练工具,支持传统机器学习与深度学习,兼顾易用性与高阶扩展性:
| 功能分类 | 核心能力清单 |
|---|---|
| 拖拉拽任务流编排 | 可视化拖拽式 Pipeline 构建,支持单任务调试、多资源规格(CPU/GPU)选择、卡型指定、超时重试;支持任务独占 / 共享 GPU、RDMA 资源占用;支持定时调度 / 补录 / 并发限制 / 实例依赖,任务流暂停 / 恢复 / 优先级设置 |
| 主流功能算子 | 覆盖全流程 AI 开发需求:- 基础算子:自定义镜像、逻辑节点、Python 脚本- 数据同步:数据集导入(含 HuggingFace)、DataX、模型导入(含 HuggingFace)- 数据处理:合并 / 去重 / 变换 / 异常检测 / 特征组合 / 降维(PCA / 卡方)/ 采样(过采样 / 欠采样)- 传统 ML:Ray-Sklearn 分布式、XGB 单机训练,算法覆盖 ARIMA/RF/LR/LightGBM/KNN/KMeans/GBDT/XGBoost- 分布式 DL:TensorFlow/PyTorch/MXNet/Horovod/PaddleJob/MindSpore,加速框架(MPI/ColossalAI/DeepSpeed/Megatron)- 模型处理:评估、格式转换、注册、离线推理、部署- 媒体处理:分布式媒体下载、视频提图 |
| 算子自定义 | Web 界面操作将自定义算法代码封装为镜像,注册为可复用的 Pipeline 算子,支持团队协作 |
| 自动学习 | 面向非 AI 背景用户,选择场景 + 上传数据即可自动训练与部署,支持 AutoML 任务流导入导出 |
| 自定义镜像与调参 | 支持高级开发者自定义训练环境(镜像 + 代码);提供单机 / 分布式自动超参搜索,优化模型精度 |
| TensorBoard 作业 | 实时 / 离线监控训练过程中的参数、损失值、准确率等指标变化,辅助模型调优 |
5. 模型管理与推理服务:实现智能落地(智能落地叶核心)
提供模型全生命周期管理与高效推理部署能力,支持 “0 代码发布” 与弹性伸缩,确保模型快速服务业务:
| 功能分类 | 核心能力清单 |
|---|---|
| 内部服务部署 | 快捷部署开源工具(MySQL-Web/PostgreSQL-Web/MongoDB-Web/Redis-Web/Neo4j/RStudio),满足开发运维需求 |
| 模型管理 | 支持模型多版本管理、版本控制,一键发布为推理服务,追溯模型训练数据与参数 |
| 推理服务部署 | 支持主流模型(ML/TensorFlow/PyTorch/TensorRT/ONNX)0 代码发布,特性包括:- 资源配置:GPU 卡型选择、vGPU / 独占 / 共享模式、CPU/GPU/ 内存弹性伸缩- 服务管控:流量分流 / 复制、泛域名配置、JWT 认证、多环境(调试 / 测试 / 生产)- 运维能力:服务监控(QPS / 吞吐 / 负载)、滚动升级 / 回滚、单 Pod 发布、定时伸缩容- 自定义支持:远程模型路径、Sidecar 配置、自定义推理镜像 |
| 大模型支持 | 支持分布式多机多卡训练(MPI/DeepSpeed/Colossal-AI)、大模型推理(OpenJourney/GPT3/Yuan/SD 系列 / ChatGLM/Llama/Qwen/Baichuan2)、FastChat+VLLM 推理加速与流式接口 |
6. 监控体系:保障稳定运行
全维度监控资源与服务状态,及时发现并解决问题,确保 AI 业务稳定可靠:
| 功能分类 | 核心能力清单 |
|---|---|
| 整体资源监控 | 可视化展示所有集群 / 机器状态(所属集群 / 资源组、IP、CPU/GPU 类型、使用率);展示所有 Pod 状态(所属集群 / 命名空间、用户、资源申请 / 使用率);支持管理员批量删除无效资源 |
| 细粒度监控 | 覆盖机器(GPU/CPU/ 内存 / 网络 IO / 磁盘 IO)、Pod(CPU/GPU/ 内存 / 网络 IO)、推理服务(QPS / 吞吐 /vGPU 负载)、IB 流量监控 |
7. 模型应用市场:丰富生态能力
提供预训练模型与便捷 SDK,降低 AI 应用门槛,加速行业场景落地:
| 功能分类 | 核心能力清单 |
|---|---|
| 预训练模型库 | 提供 400+ 预训练模型(视觉 / 听觉 / NLP / 多模态),支持一键加载推理、一键部署服务、API 调用 |
| 模型应用工具 | 支持模型一键转 Notebook 开发(匹配所需环境)、一键转 Pipeline 微调链路(含示例数据集下载);提供 Web 端模型体验(同步 / 异步推理) |
| SDK 与基础镜像 | 提供 CubeStudio SDK,规范模型开发与使用;提供多 Python/CUDA 版本基础镜像,适配不同开发需求 |
| AIHub 对接 | 卡片式展示 AIHub 应用,实现平台与外部 AI 生态的无缝衔接 |
8. 私有知识库:赋能业务场景
支持企业私有知识库构建与多端对接,让 AI 能力深度融入办公与业务流程:
| 功能分类 | 核心能力清单 |
|---|---|
| 知识库配置 | 支持私有知识库创建、内容导入与召回策略配置,实现个性化知识管理 |
| 多端对接 | 支持对接微信公众号 / 服务号、企业微信群聊机器人、钉钉群聊机器人,提供智能问答与知识检索服务 |
| 交互模式 | 支持多场景对话、提示词构建、推理接口配置、模型切换与历史上下文清理 |
三、平台优势
-
全栈覆盖,无断点:从数据接入到模型部署,从基础算力到业务应用,覆盖 AI 全生命周期,无需跨平台切换,降低协同成本。
-
灵活适配,高兼容:支持多集群(物理机 / 边缘 / Serverless)、多芯片(GPU / 国产芯片)、多框架(TensorFlow/PyTorch/MindSpore),适配企业多样化 IT 架构。
-
安全可控,企业级:基于 RBAC 权限模型、SSO 单点登录、HTTPS 加密、操作日志审计,满足企业数据安全与合规需求;支持租户 / 项目组资源隔离,成本可控。
-
易用高效,低门槛:拖拉拽 Pipeline、0 代码推理部署、自动学习功能,降低非 AI 背景用户使用门槛;自定义算子 / 镜像、分布式训练,满足高阶研发需求。
四、适用场景
-
传统企业 AI 转型:通过自动学习、预训练模型快速搭建 AI 能力(如制造质检、零售推荐)。
-
科技企业 AI 研发:基于自定义工具链实现高阶模型开发(如大模型微调、分布式训练)。
-
金融 / 政务等敏感行业:依托安全管控与国产化适配,实现合规的 AI 应用(如智能风控、政务问答)。
-
互联网企业规模化部署:通过弹性伸缩与多集群调度,支撑高并发推理服务(如推荐系统、智能客服)。
三叶智擎 AI 平台持续迭代,欢迎企业用户试用与反馈,共同推动 AI 技术落地与产业智能化升级!