@@ -314,6 +314,8 @@ def byref(obj: CtypesCData, offset: Optional[int] = None) -> CtypesRef[CtypesCDa
314314# LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20,
315315# LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21,
316316# LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22,
317+ # LLAMA_VOCAB_PRE_TYPE_BLOOM = 23,
318+ # LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24,
317319# };
318320LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0
319321LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1
@@ -338,20 +340,20 @@ def byref(obj: CtypesCData, offset: Optional[int] = None) -> CtypesRef[CtypesCDa
338340LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20
339341LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21
340342LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22
343+ LLAMA_VOCAB_PRE_TYPE_BLOOM = 23
344+ LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24
341345
342346
343347# // note: these values should be synchronized with ggml_rope
344348# // TODO: maybe move this enum to ggml.h (ggml_rope_type)
345349# enum llama_rope_type {
346350# LLAMA_ROPE_TYPE_NONE = -1,
347351# LLAMA_ROPE_TYPE_NORM = 0,
348- # LLAMA_ROPE_TYPE_NEOX = 2,
349- # LLAMA_ROPE_TYPE_GLM = 4,
352+ # LLAMA_ROPE_TYPE_NEOX = GGML_ROPE_TYPE_NEOX,
350353# };
351354LLAMA_ROPE_TYPE_NONE = - 1
352355LLAMA_ROPE_TYPE_NORM = 0
353- LLAMA_ROPE_TYPE_NEOX = 2
354- LLAMA_ROPE_TYPE_GLM = 4
356+ LLAMA_ROPE_TYPE_NEOX = GGML_ROPE_TYPE_NEOX = 2
355357
356358
357359# enum llama_token_type { //TODO: remove, required until per token attributes are available from GGUF file
@@ -2741,19 +2743,15 @@ def llama_token_nl(model: llama_model_p, /) -> int:
27412743 ...
27422744
27432745
2744- # // Returns -1 if unknown, 1 for true or 0 for false.
2745- # LLAMA_API int32_t llama_add_bos_token(const struct llama_model * model);
2746- @ctypes_function ("llama_add_bos_token" , [llama_model_p_ctypes ], ctypes .c_int32 )
2747- def llama_add_bos_token (model : llama_model_p , / ) -> int :
2748- """Returns -1 if unknown, 1 for true or 0 for false."""
2746+ # LLAMA_API bool llama_add_bos_token(const struct llama_model * model);
2747+ @ctypes_function ("llama_add_bos_token" , [llama_model_p_ctypes ], ctypes .c_bool )
2748+ def llama_add_bos_token (model : llama_model_p , / ) -> bool :
27492749 ...
27502750
27512751
2752- # // Returns -1 if unknown, 1 for true or 0 for false.
2753- # LLAMA_API int32_t llama_add_eos_token(const struct llama_model * model);
2754- @ctypes_function ("llama_add_eos_token" , [llama_model_p_ctypes ], ctypes .c_int32 )
2755- def llama_add_eos_token (model : llama_model_p , / ) -> int :
2756- """Returns -1 if unknown, 1 for true or 0 for false."""
2752+ # LLAMA_API bool llama_add_eos_token(const struct llama_model * model);
2753+ @ctypes_function ("llama_add_eos_token" , [llama_model_p_ctypes ], ctypes .c_bool )
2754+ def llama_add_eos_token (model : llama_model_p , / ) -> bool :
27572755 ...
27582756
27592757
0 commit comments