请稍等 ...
×

采纳答案成功!

向帮助你的同学说点啥吧!感谢那些助人为乐的人

deepseek模型分词中文丢失

图片描述
上面使用 deepseek-v3.2模型,分词结果中文丢失了,使用 deepseek-v3 版本也是一样的,我看老师你讲课过程中是直接能够输出结果的,是我这边缺少了什么设置吗?
环境信息:
transformers=5.3.0
Python=3.12.13

正在回答 回答被采纳积分+3

2回答

Dream哥 8小时前
看代码应该没有问题
0 回复 有任何疑惑可以回复我~
Dream哥 4天前
tokenize之后应该是ID才对呀?
0 回复 有任何疑惑可以回复我~
  • 提问者 BlueFish0702 #1
    text = "你好,这是一个Token计算示例。Hello World!"
    result = tokenizer.encode(text)
    result
    [14907, 19923, 21133, 3]  
    
    这个结果明显是不对的
    回复 有任何疑惑可以回复我~ 4天前
问题已解决,确定采纳
还有疑问,暂不采纳
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号