一、企业介绍
广东深博信息科技有限公司成立于2009年,十多年来一直致力于为用户提供最具价值的数据中心基础架构解决方案。
公司成立之初就成为IBM、Microsoft的核心合作伙伴,2014年签约浪潮广东区总代理,2021年成为NVIDIA Elite NPN精英级别合作伙伴,同时还是深信服、爱数、Zstack、Vmware、Citrix、Veritas、锐捷等品牌的高级别技术服务及产品代理商。经过多年的耕耘,公司与300多个渠道合作伙伴建立了紧密的合作关系,渠道遍布北京、上海、湖北、湖南、广西、海南、贵州、云南。
多年的技术投入和项目经验积累,深博信息科技在高性能及AI计算、私有云、高性能云桌面等方面有很强的产品及服务能力,能为客户提供最有价值的解决方案。为高校、科研机构、电力、交通及互联网、金融、制造等行业大客户提供了优质服务。
深博信息科技与华南理工大学广东省计算机与网络实验室共同合作成立研发中心,研发了智能计算集群管理软件、高性能并行存储系统、IT运维管理平台、Kubernetes容器化管理平台、GPU资源池化管理等一系列基础架构支撑软件,结合公司在数据中心基础架构硬件领域的优势,为客户提供完善的人工智能基础架构解决方案。
二、企业产品介绍
1、智能高性能计算平台(AiHPC)
产品介绍:
智能高性能计算平台(AiHPC)是一款用于高性能计算(HPC)和人工智能(AI)的基础集群管理软件。为客户提供可视化管理界面,极简有效的管理操作,稳定可靠的并发计算,自动灵活的容器平台,全面细致的资源监控。目前在高校科研、自动驾驶、智能视频分析、金融等行业客户成功使用,帮助客户解决AI训练过程中的复杂流程,让客户更专注于应用算法的开发。
核心功能:
1.集群资源监控管理:监控集群资源状态、对集群进行设置。2.作业管理监控:查看和管理作业的状态和结果。3.作业模板:提供多个作业模板(包括常规作业、普通作业、MPI作业等)。4.容器管理监控:提供多容器的自动化部署、扩展及管理。5.存储管理监控:提供进行上传文件、下载文件及删除文件等操作。6.软件映像管理监控:支持软件映像的上传,部署和删除等功能。
基础架构:
基于主流开源框架开发,性能高,适配能力强
1.Slurm、 kubernetes、Docker:
• 采用Slurm作业调度程序和kubernetes容器技术结合
• 保证用户作业相对独立,有效实现资源隔离
• 提高资源利用率,尽可能发挥出集群的最佳性能
2. BeeGFS:
• 针对海量小文件储存优化过的分布式并行文件系统
• 易用性、灵活性及性能上的独特优势
• 适应HPC和AI用户的不同业务需求
3. Ansible、Prometheus、Grafana:
• 整合Ansible、Prometheus、Grafana等组件构成AiHPC软件栈
• 形成功能齐全的一站式集群管理解决方案
4. NVIDIA GPU Operator:
• 自动化集成管理 GPU 所需的 NVIDIA 软件组件
• GPU节点管理方便
• 组件容器化
2、GPU资源池化平台
产品介绍:
基于NVIDIA GPU Operator及Kubernetes 平台的 Operator 控制模式,方便地自动化集成管理 GPU 所需的 NVIDIA 设备组件,对GPU的资源进行池化并进行有效管理;不仅实现了设备和组件一体化集成,而且它管理 GPU 节点就像管理 CPU 节点一样方便,无需单独为 GPU 节点提供特殊的操作系统。值得关注的是,它将GPU各组件容器化,提供 GPU 能力,非常适合快速扩展和管理规模 GPU 节点,提供多实例GPU(MIG)和GPU 时间切片方式进行GPU资源池化管理。
3、企业级AI平台
产品介绍:
企业级AI平台是一款端到端、云原生的 AI 和数据分析软件套件,已经过优化,可助力任何组织使用 AI。它经过认证,可随时随地(从企业数据中心到公有云)进行部署,并包含全球企业支持,可保证 AI 项目如期进行。企业级AI平台包含经过验证的开源框架和工具,能够简化 AI 开发和部署,使组织可以专注于从 AI 中创造商业价值。
功能模块介绍:
RAPIDS
RAPIDS,全称Real-time Acceleration Platform for Integrated Data Science,是针对数据科学与机器学习推出的的GPU加速平台。
使用RAPIDS加速库可以实现从数据准备、模型训练到预测整个端到端流程得到GPU的加速支持,大大提升任务的执行效率,在模型精度方面实现突破的同时降低基础架构TCO。
TAO Toolkit
TAO Toolkit 是一个基于 Python 的工具包,它使开发人员能够利用 NVIDIA 预先训练的模型,并为开发人员提供一系列的工具,使流行的网络架构适应他们自己的数据,并且能够训练、调整、修剪和导出模型以进行部署。企业可使用迁移学习或联邦学习,对预训练模型进行微调,将特定领域模型的生成时间从数月缩短至几小时,从而无需运行大规模训练及深度Al专业知识。
PyTorch:
PyTorch 是一种用于构建深度学习模型的功能完备框架,通常用于图像识别和语言处理等应用程序的机器学习。专门针对 GPU 加速的深度神经网络(DNN)编程,能够在强大的 GPU 加速基础上实现张量和动态神经网络。
TENSORFLOW:
TensorFlow 是数据科学家、软件开发者和教育工作者主要使用的开源平台,用于使用数据流图形进行机器学习。
TensorRT:
TensorRT是可以在NVIDIA各种GPU硬件平台下运行的一个C++推理框架。它旨在与TesnsorFlow、Caffe、Pytorch以及MXNet等训练框架以互补的方式进行工作,专门致力于在GPU上快速有效地进行网络推理。推理速度提升的比例是比较可观的。
Triton Inference Server:
Triton是 NVIDIA 推出的 Inference Server,专门做 AI 模型的部署服务,为用户提供部署在云和边缘推理上的解决方案。客户端可以同伙HTTP/REST或gRPC的方式来请求服务。支持多种AI框架;支持GPU和CPU运行方式,能最大化利用硬件资源;容器化部署,集成K8S,可以方便的进行编排和扩展;支持并发模型及批处理算法,极大提高推理吞吐量。
三、企业需求
1、找业务:找有高性能计算集群、人工智能计算平台、GPU及服务器等业务需求的客户。
2、找贷款:公司业务快速发展,需要低成本资金。
3、找人才:熟悉相关行业领域的市场开拓及技术开发人才。
资料来源:广东深博信息科技有限公司
想了解更多企业相关信息,请与我们联系↓↓↓
大湾区科技创新服务中心
姚诗诗,18819480848
黎李霞,18359871171
订阅后可查看全文(剩余80%)