@@ -950,42 +950,47 @@ def llama_token_nl(ctx: llama_context_p) -> llama_token:
950
950
# LLAMA_API int llama_tokenize(
951
951
# struct llama_context * ctx,
952
952
# const char * text,
953
+ # int text_len,
953
954
# llama_token * tokens,
954
955
# int n_max_tokens,
955
956
# bool add_bos);
956
957
def llama_tokenize (
957
958
ctx : llama_context_p ,
958
959
text : bytes ,
960
+ text_len : Union [c_int , int ],
959
961
tokens , # type: Array[llama_token]
960
962
n_max_tokens : Union [c_int , int ],
961
963
add_bos : Union [c_bool , int ],
962
964
) -> int :
963
- return _lib .llama_tokenize (ctx , text , tokens , n_max_tokens , add_bos )
965
+ return _lib .llama_tokenize (ctx , text , text_len , tokens , n_max_tokens , add_bos )
964
966
965
967
966
- _lib .llama_tokenize .argtypes = [llama_context_p , c_char_p , llama_token_p , c_int , c_bool ]
968
+ _lib .llama_tokenize .argtypes = [llama_context_p , c_char_p , c_int , llama_token_p , c_int , c_bool ]
967
969
_lib .llama_tokenize .restype = c_int
968
970
969
971
970
972
# LLAMA_API int llama_tokenize_with_model(
971
973
# const struct llama_model * model,
972
974
# const char * text,
975
+ # int text_len,
973
976
# llama_token * tokens,
974
977
# int n_max_tokens,
975
978
# bool add_bos);
976
979
def llama_tokenize_with_model (
977
980
model : llama_model_p ,
978
981
text : bytes ,
982
+ text_len : Union [c_int , int ],
979
983
tokens , # type: Array[llama_token]
980
984
n_max_tokens : Union [c_int , int ],
981
985
add_bos : Union [c_bool , bool ],
982
986
) -> int :
983
- return _lib .llama_tokenize_with_model (model , text , tokens , n_max_tokens , add_bos )
987
+ return _lib .llama_tokenize_with_model (model , text , text_len , tokens , n_max_tokens , add_bos )
984
988
985
989
986
990
_lib .llama_tokenize_with_model .argtypes = [
987
991
llama_model_p ,
988
992
c_char_p ,
993
+ c_int ,
989
994
llama_token_p ,
990
995
c_int ,
991
996
c_bool ,
0 commit comments