建木社区助你玩转NeMo
2023-05-29 邵嘉诚
建木社区助你玩转NeMo
作者:邵嘉诚 发布时间:2023-05-29 10:00:00

在发布 ChatGLM 镜像及部署节点后,我们收到了许多用户的反馈,他们希望了解更多关于如何搭建会话 AI 模型平台。为了满足这些需求,我们决定提供一个流行的工具包——NVIDIA NeMo 的镜像及部署节点,以便于用户能更快上手并开始使用 NeMo。

什么是NeMo?

NVIDIA NeMo 是一个用于构建会话 AI 的工具包,它可以帮助研究人员在自动语音识别(ASR)、文本到语音合成(TTS)、大型语言模型(LLMs)和自然语言处理(NLP)等领域进行工作,主要目的是帮助来自工业界和学术界的研究人员重用以前的工作(代码和预训练模型),并使创建新的会话 AI 模型变得更加容易。

如何部署?


最新NeMo镜像已上传至jianmuhub,地址为https://res.jianmuhub.com/image/autoops/nemo

使用方法如下

1
2
3
4
5
6
7
# 1.从建木镜像仓库拉镜像
docker pull docker.jianmuhub.com/autoops/nemo:latest
# 2.启动容器
docker run --gpus all -d --runtime=nvidia --shm-size=8g \
-p 8888:8888 --ulimit memlock=-1 --ulimit stack=67108864 \
--name=nemo docker.jianmuhub.com/autoops/nemo:latest ./start-jupyter.sh
# 3.启动后,可通过浏览器http://localhost:8888访问jupyter界面

部署完成后,就可以得到一个预装NeMo的jupyterLab环境,登陆后如下:

如何通过建木节点部署?


NeMo部署节点在建木hub的地址:https://jianmuhub.com/autoops/nemo_deploy

该节点可在指定IP的Linux服务上远程部署NeMo并启动jupyter服务,默认指定容器共享内存大小为8g,内存无限制,堆栈大小为64mb,可根据实际配置自行修改。部署要求服务器已安装docker,nvidia驱动及nvidia容器运行时,具体要求参照节点仓库readme。

部署过程中遇到任何问题,欢迎开issue或者加入建木社区用户群交流。

如何使用NeMo

部署完成后,即可通过NeMo调用会话AI的相关模型,这里提供一个调用asr模型进行音频转文字的样例,代码如下:

1
2
3
4
5
6
7
8
import nemo.collections.asr as nemo_asr

asr_model = nemo_asr.models.EncDecCTCModel.from_pretrained(model_name="stt_zh_citrinet_1024_gamma_0_25").cuda()

!wget 'https://nemo-public.s3.us-east-2.amazonaws.com/zh-samples/common_voice_zh-CN_21347786.mp3'
audio_sample = 'common_voice_zh-CN_21347786.mp3'
transcribed_text = asr_model.transcribe([audio_sample])
print(transcribed_text)

执行结果如下:

1
['我们尽了最大努力']

最后

本次分享内容介绍到这就结束啦!未来,建木社区将更加努力地推进大模型对话技术的发展,为用户提供更加优质的服务。