@@ -314,6 +314,8 @@ def byref(obj: CtypesCData, offset: Optional[int] = None) -> CtypesRef[CtypesCDa
314
314
# LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20,
315
315
# LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21,
316
316
# LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22,
317
+ # LLAMA_VOCAB_PRE_TYPE_BLOOM = 23,
318
+ # LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24,
317
319
# };
318
320
LLAMA_VOCAB_PRE_TYPE_DEFAULT = 0
319
321
LLAMA_VOCAB_PRE_TYPE_LLAMA3 = 1
@@ -338,20 +340,20 @@ def byref(obj: CtypesCData, offset: Optional[int] = None) -> CtypesRef[CtypesCDa
338
340
LLAMA_VOCAB_PRE_TYPE_TEKKEN = 20
339
341
LLAMA_VOCAB_PRE_TYPE_SMOLLM = 21
340
342
LLAMA_VOCAB_PRE_TYPE_CODESHELL = 22
343
+ LLAMA_VOCAB_PRE_TYPE_BLOOM = 23
344
+ LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH = 24
341
345
342
346
343
347
# // note: these values should be synchronized with ggml_rope
344
348
# // TODO: maybe move this enum to ggml.h (ggml_rope_type)
345
349
# enum llama_rope_type {
346
350
# LLAMA_ROPE_TYPE_NONE = -1,
347
351
# LLAMA_ROPE_TYPE_NORM = 0,
348
- # LLAMA_ROPE_TYPE_NEOX = 2,
349
- # LLAMA_ROPE_TYPE_GLM = 4,
352
+ # LLAMA_ROPE_TYPE_NEOX = GGML_ROPE_TYPE_NEOX,
350
353
# };
351
354
LLAMA_ROPE_TYPE_NONE = - 1
352
355
LLAMA_ROPE_TYPE_NORM = 0
353
- LLAMA_ROPE_TYPE_NEOX = 2
354
- LLAMA_ROPE_TYPE_GLM = 4
356
+ LLAMA_ROPE_TYPE_NEOX = GGML_ROPE_TYPE_NEOX = 2
355
357
356
358
357
359
# enum llama_token_type { //TODO: remove, required until per token attributes are available from GGUF file
@@ -2741,19 +2743,15 @@ def llama_token_nl(model: llama_model_p, /) -> int:
2741
2743
...
2742
2744
2743
2745
2744
- # // Returns -1 if unknown, 1 for true or 0 for false.
2745
- # LLAMA_API int32_t llama_add_bos_token(const struct llama_model * model);
2746
- @ctypes_function ("llama_add_bos_token" , [llama_model_p_ctypes ], ctypes .c_int32 )
2747
- def llama_add_bos_token (model : llama_model_p , / ) -> int :
2748
- """Returns -1 if unknown, 1 for true or 0 for false."""
2746
+ # LLAMA_API bool llama_add_bos_token(const struct llama_model * model);
2747
+ @ctypes_function ("llama_add_bos_token" , [llama_model_p_ctypes ], ctypes .c_bool )
2748
+ def llama_add_bos_token (model : llama_model_p , / ) -> bool :
2749
2749
...
2750
2750
2751
2751
2752
- # // Returns -1 if unknown, 1 for true or 0 for false.
2753
- # LLAMA_API int32_t llama_add_eos_token(const struct llama_model * model);
2754
- @ctypes_function ("llama_add_eos_token" , [llama_model_p_ctypes ], ctypes .c_int32 )
2755
- def llama_add_eos_token (model : llama_model_p , / ) -> int :
2756
- """Returns -1 if unknown, 1 for true or 0 for false."""
2752
+ # LLAMA_API bool llama_add_eos_token(const struct llama_model * model);
2753
+ @ctypes_function ("llama_add_eos_token" , [llama_model_p_ctypes ], ctypes .c_bool )
2754
+ def llama_add_eos_token (model : llama_model_p , / ) -> bool :
2757
2755
...
2758
2756
2759
2757
0 commit comments