### Motivation lmdeploy pytorch backend的embedding层似乎没有实现tp并行,但embedding层和linear层一样同属模型参数的主要组成部分,显存占用较大,lmdeploy有计划支持embedding层的tp并行吗 ### Related resources _No response_ ### Additional context _No response_