网易首页 > 网易号 > 正文 申请入驻

NVIDIA Triton 系列文章(8):用户端其他特性

0
分享至

前面文章用 Triton 开源项目提供的 image_client.py 用户端作示范,在这个范例代码里调用大部分 Triton 用户端函数,并使用多种参数来配置执行的功能,本文内容就是简单剖析 image_client.py 的代码,为读者提供撰写 Triton 用户端的流程

  • 指定通信协议

为了满足大部分网路环境的用户端请求,Triton 在服务器与用户端之间提供 HTTP 与 gRPC 两种通信协议,如下架构图所示:

当我们启动 Triton 服务器之后,最后状态会停留在如下截屏的地方:

显示的信息表示,系统提供 8001 端口给 gRPC 协议使用、提供 8000 端口给 HTTP 协议使用。此时服务器处于接收用户端请求的状态,因此“指定通信协议”是执行 Triton 用户端的第一个工作。

这个范例支持两种通信协议,一开始先导入tritonclient.httptritonclient.grpc两个模块,如下:

import tritonclient.grpc as grpcclientimport tritonclient.http as httpclient

代码使用“-i”或“--protocal”其中一种参数指定“HTTP”或“gRPC”协议类型,如果不指定就使用“HTTP”预设值。再根据协议种类调用 httpcclient.InferenceServerClient() 或 grpcclient.InferenceServerClient() 函数创建triton_client对象,如下所示:

try: if FLAGS.protocol.lower() == "grpc": # Create gRPC client for communicating with the server triton_client = grpcclient.InferenceServerClient( url=FLAGS.url, verbose=FLAGS.verbose) else: # Specify large enough concurrency to handle the # the number of requests. concurrency = 20 if FLAGS.async_set else 1 triton_client = httpclient.InferenceServerClient( url=FLAGS.url, verbose=FLAGS.verbose, concurrency=concurrency)

最后启用 triton_client.infer() 函数对 Triton 服务器发出推理要求,当然得将所需要的参数提供给这个函数,如下所示:

responses.append( triton_client.infer(FLAGS.model_name, inputs, request_id=str(sent_count), model_version=FLAGS.model_version, outputs=outputs))

不过 image_client.py 代码中并未设定 gRPC 所需要的 8001 端口,因此使用这个通讯协议时,需要用“-u”参数设定“IP:端口”,例如下面指令:

$ python3 image_client.py -m inception_graphdef -s INCEPTION VGG ${HOME}/images/mug.jpg -i GRPC -u <服务器IP>:8001

在 examples 范例目录下还有 20 个基于 gRPC 协议的范例以及 10 个基于 HTTP 协议的范例,则是在代码内直接指定个别通信协议与端口号的范例,读者可以根据需求去修改特定的范例代码。

  • 调用异步模式(async mode)与数据流(streaming)

大部分读者比较熟悉的并行计算模式,就是在同一个时钟脉冲(clock puls)让不同计算核执行相同的工作,也就是所谓的 SIMD(单指令多数据)并行计算,通常适用于数据量大而且持续的密集型计算任务。

对 Triton 推理服务器而言,并不能确认所收到的推理要求是否为密集型的计算。事实上很大比例的推理要求是属于零碎型计算,这种状况下调用“异步模式”会让系统更加有效率,因为它允许不同计算核(线程)在同一个时钟脉冲段里执行不同指令,这样能大大提高执行弹性进而优化计算性能。

当 Triton 服务器端启动之后,就能接收来自用户端的“异步模式”请求,不过在 HTTP 协议与 gRPC 协议的处理方式不太一样。

在代码中用httpclient.InferenceServerClient()函数创建 HTTP 的 triton_client 对象时,需要给定“concurrnecy(并发数量)”参数,而创建 gRPC 的用户端时就不需要这个参数。

调用异步模式有时会需要搭配数据流(stream)的处理器(handle),因此在实际推理的函数就有triton_client.async_infer()triton_client.async_stream_infer()两种,使用 gRPC 协议创建的triton_client,在调用无 stream 模式的async_infer()函数进行推理时,需要提供partial(completion_callback, user_data)参数。

由于异步处理与数据流处理有比较多底层线程管理的细节,初学者只需要范例目录下的代码,包括 image_client.py 与两个 simple_xxxx_async_infer_client.py 的代码就可以,细节部分还是等未来更熟悉系统之后再进行深入。

  • 使用共享内存(share memory)

如果发起推理请求的 Triton 用户端与 Triton 服务器在同一台机器时,就可以使用共享内存的功能,这包含一般系统内存与 CUDA 显存两种,这项功能可以非常高效地降低数据传输的开销,对提升推理性能有明显的效果。

在 image_client.py 范例中并未提供这项功能,在 Python 范例下有 6 个带有“shm”文件名的代码,就是支持共享内存调用的范例,其中 simple_http_shm_client.py 与 simple_grpc_shm_client.py 为不同通信协议提供了使用共享系统内存的代码,下面以 simple_grpc_shm_client.py 内容为例,简单说明一下主要执行步骤:

# 1.为两个输入张量创建数据:第1个初始化为一整数、第2个初始化为所有整数 input0_data = np.arange(start=0, stop=16, dtype=np.int32) input1_data = np.ones(shape=16, dtype=np.int32) input_byte_size = input0_data.size * input0_data.itemsize output_byte_size = input_byte_size# 2. 为输出创建共享内存区域,并存储共享内存管理器 shm_op_handle = shm.create_shared_memory_region("output_data", "/output_simple", output_byte_size * 2)# 3.使用Triton Server注册输出的共享内存区域 triton_client.register_system_shared_memory("output_data", "/output_simple", output_byte_size * 2)# 4. 将输入数据值放入共享内存 shm_ip_handle = shm.create_shared_memory_region("input_data", "/input_simple", input_byte_size * 2)# 5. 将输入数据值放入共享内存 shm.set_shared_memory_region(shm_ip_handle, [input0_data]) shm.set_shared_memory_region(shm_ip_handle, [input1_data], offset=input_byte_size)# 6. 使用Triton Server注册输入的共享内存区域 triton_client.register_system_shared_memory("input_data", "/input_simple", input_byte_size * 2)# 7. 设置参数以使用共享内存中的数据 inputs = [] inputs.append(grpcclient.InferInput('INPUT0', [1, 16], "INT32")) inputs[-1].set_shared_memory("input_data", input_byte_size) inputs.append(grpcclient.InferInput('INPUT1', [1, 16], "INT32")) inputs[-1].set_shared_memory("input_data", input_byte_size, offset=input_byte_size) outputs = [] outputs.append(grpcclient.InferRequestedOutput('OUTPUT0')) outputs[-1].set_shared_memory("output_data", output_byte_size) outputs.append(grpcclient.InferRequestedOutput('OUTPUT1')) outputs[-1].set_shared_memory("output_data", output_byte_size, offset=output_byte_size) results = triton_client.infer(model_name=model_name, inputs=inputs, outputs=outputs)# 8. 从共享内存读取结果 output0 = results.get_output("OUTPUT0")

至于范例中有两个simple_xxxx_cudashm_client.py这是针对 CUDA 显存共享的返利代码,主要逻辑与上面的代码相似,主要将上面“shm.”开头的函数改成“cudashm.”开头的函数,当然处理流程也更加复杂一些,需要有足够 CUDA 编程基础才有能力驾驭,因此初学者只要大致了解流程就行。

以上就是 Triton 用户端会用到的基本功能,不过缺乏足够的说明文件,因此其他功能函数的内容必须自行在开源文件内寻找,像 C++ 版本的功能得在 src/c++/library 目录下的 common.h、grpc_client.h 与 http_client.h 里找到细节,Python 版本的函数分别在 src/python/library/triton_client 下的 grpc、http、utils 下的 __init__.py 代码内,获取功能与函数定义的细节。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
历史第一!詹姆斯总出场1798场超贾巴尔 再创里程碑宝刀不老

历史第一!詹姆斯总出场1798场超贾巴尔 再创里程碑宝刀不老

醉卧浮生
2024-11-30 12:20:13
出状况了!朝鲜那边传来不妙的消息!

出状况了!朝鲜那边传来不妙的消息!

星辰故事屋
2024-11-30 19:52:08
汪峰官宣新恋情,本以为森林北才是赢家,谁料马伊琍成最大获益人

汪峰官宣新恋情,本以为森林北才是赢家,谁料马伊琍成最大获益人

十二生肖运势分析
2024-11-30 08:50:03
最新!大型电商平台官宣:废止“退款不退货”

最新!大型电商平台官宣:废止“退款不退货”

每日经济新闻
2024-11-28 17:36:13
马苏,身高165厘米,“马漂亮”这称号,真不是盖的。

马苏,身高165厘米,“马漂亮”这称号,真不是盖的。

人情皆文史
2024-11-01 00:11:01
俄军出现致命失误,S400导弹被炸成渣,同样的错,解放军绝不会犯

俄军出现致命失误,S400导弹被炸成渣,同样的错,解放军绝不会犯

空天力量
2024-11-29 20:24:00
夫妻上访5000次,10年维权成“寻衅滋事”,医生丈夫病逝看守所

夫妻上访5000次,10年维权成“寻衅滋事”,医生丈夫病逝看守所

回旋镖
2024-11-30 11:12:11
11月30日俄乌:泽连斯基以退为进,提出“割地换和平”

11月30日俄乌:泽连斯基以退为进,提出“割地换和平”

山河路口
2024-11-30 18:19:17
网传因待遇骤降,医生大面积停诊,一医院发紧急通知规范休班流程

网传因待遇骤降,医生大面积停诊,一医院发紧急通知规范休班流程

火山诗话
2024-11-30 06:11:23
先X后爱,尺度生猛,孔刘新剧这么刺激?

先X后爱,尺度生猛,孔刘新剧这么刺激?

君君电影院
2024-11-30 00:09:08
郭艾伦轰32分5板7助,率广州队送吉林两连败!琼斯空砍34+8+6

郭艾伦轰32分5板7助,率广州队送吉林两连败!琼斯空砍34+8+6

篮球扫地僧
2024-11-30 21:44:53
男子带派出所证明注销去世老人电话号码,被要求证明“家属关系”,运营商回应

男子带派出所证明注销去世老人电话号码,被要求证明“家属关系”,运营商回应

极目新闻
2024-11-30 13:37:03
浙江官媒重磅发声,围剿吴柳芳的人到了该闭嘴的时候

浙江官媒重磅发声,围剿吴柳芳的人到了该闭嘴的时候

顾礼先生
2024-11-29 16:22:30
优衣库凉凉?多家平台下架其商品,官媒发声:新疆棉不容抹黑!

优衣库凉凉?多家平台下架其商品,官媒发声:新疆棉不容抹黑!

萌神木木
2024-11-29 21:47:08
中方没给想要的台阶,立陶宛想了一周,宣布驱逐3名中国外交官

中方没给想要的台阶,立陶宛想了一周,宣布驱逐3名中国外交官

王晋博士
2024-11-30 15:50:30
女子将两斤泥鳅倒进下水道疏通管道 有点效果 泥鳅们还在努力

女子将两斤泥鳅倒进下水道疏通管道 有点效果 泥鳅们还在努力

闪电新闻
2024-11-21 11:59:18
叙利亚自由军受民众热烈欢迎,向大马士革进军,阿萨德进入倒计时

叙利亚自由军受民众热烈欢迎,向大马士革进军,阿萨德进入倒计时

七分日记
2024-11-30 20:39:13
欧冠场均仅跑8KM!姆巴佩20岁开始身体滑坡,皇马早已知情

欧冠场均仅跑8KM!姆巴佩20岁开始身体滑坡,皇马早已知情

叶青足球世界
2024-11-30 19:51:21
官方证实!OPPO杭州全球总部,停工了!总用地规模近5万平方米

官方证实!OPPO杭州全球总部,停工了!总用地规模近5万平方米

每日经济新闻
2024-11-28 20:58:07
企业领导在微信群对员工“爆粗口”,回应:已读不回,我很生气

企业领导在微信群对员工“爆粗口”,回应:已读不回,我很生气

澎湃新闻
2024-11-30 10:36:07
2024-12-01 01:12:49
NVIDIA英伟达中国
NVIDIA英伟达中国
英伟达(中国)官方账号
2749文章数 1324关注度
往期回顾 全部

科技要闻

官宣!华为+广汽,联手造车!

头条要闻

八年来首次 叙利亚反对派武装攻入阿勒颇大部分地区

头条要闻

八年来首次 叙利亚反对派武装攻入阿勒颇大部分地区

体育要闻

历史第一!詹姆斯再创里程碑宝刀不老

娱乐要闻

恶意炒作!李行亮麦琳和好后口碑崩塌

财经要闻

雪松爆雷前实控人张劲在香港抛售房产

汽车要闻

比亚迪方程豹豹8推送首次OTA 新增暴力模式

态度原创

家居
健康
教育
艺术
时尚

家居要闻

现代设计感 温馨两居室

花18万治疗阿尔茨海默病,值不值?

教育要闻

傅佩荣:拼命卷孩子,其实是家长太焦虑了

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

48岁满头银发又怎样?她活成了所有女人都想成为的样子

无障碍浏览 进入关怀版