安装信息:python -m pip install paddle-metax-gpu==3.3.0 -i www.paddlepaddle.org.cn/packages/stable/maca/
模型运行脚本如上传文件:
使用模型:
PP-OCRv5_server_det
PP-LCNet_x1_0_doc_ori
PP-LCNet_x1_0_textline_ori
PP-OCRv5_server_rec
UVDoc
安装信息:python -m pip install paddle-metax-gpu==3.3.0 -i www.paddlepaddle.org.cn/packages/stable/maca/
模型运行脚本如上传文件:
使用模型:
PP-OCRv5_server_det
PP-LCNet_x1_0_doc_ori
PP-LCNet_x1_0_textline_ori
PP-OCRv5_server_rec
UVDoc
尊敬的开发者您好,可以尝试使用vllm或sglang进行服务化推理。
这几个模型是共同协作的,实现一条ocr流水线,用vllm怎么跑这个
PP-OCRv5_server_det
PP-LCNet_x1_0_doc_ori
PP-LCNet_x1_0_textline_ori
PP-OCRv5_server_rec
UVDoc
由于有批量存文本识别业务要求,这几个模型组成的流水线明显更适合该业务,vl-1.5的这个有想过,但是业务方认为这个多模态的不太适合该业务
尊敬的开发者您好,请联系相关商务接口人申请技术支持!