Update llama.cpp

This commit is contained in:
Andrei Betlen 2023-08-24 18:01:42 -04:00
parent 3674e5ed4e
commit c2d1deaa8a
2 changed files with 11 additions and 43 deletions

View file

@ -531,6 +531,15 @@ _lib.llama_n_embd.argtypes = [llama_context_p]
_lib.llama_n_embd.restype = c_int _lib.llama_n_embd.restype = c_int
# LLAMA_API enum llama_vocab_type llama_vocab_type(const struct llama_context * ctx);
def llama_vocab_type(ctx: llama_context_p) -> int:
return _lib.llama_vocab_type(ctx)
_lib.llama_vocab_type.argtypes = [llama_context_p]
_lib.llama_vocab_type.restype = c_int
# LLAMA_API int llama_model_n_vocab(const struct llama_model * model); # LLAMA_API int llama_model_n_vocab(const struct llama_model * model);
def llama_model_n_vocab(model: llama_model_p) -> int: def llama_model_n_vocab(model: llama_model_p) -> int:
return _lib.llama_model_n_vocab(model) return _lib.llama_model_n_vocab(model)
@ -849,7 +858,7 @@ _lib.llama_token_get_score.argtypes = [llama_context_p, llama_token]
_lib.llama_token_get_score.restype = c_float _lib.llama_token_get_score.restype = c_float
# LLAMA_API llama_token_type llama_token_get_type(const struct llama_context * ctx, llama_token token); # LLAMA_API enum llama_token_type llama_token_get_type(const struct llama_context * ctx, llama_token token);
def llama_token_get_type(ctx: llama_context_p, token: llama_token) -> int: def llama_token_get_type(ctx: llama_context_p, token: llama_token) -> int:
return _lib.llama_token_get_type(ctx, token) return _lib.llama_token_get_type(ctx, token)
@ -918,32 +927,6 @@ _lib.llama_tokenize.argtypes = [llama_context_p, c_char_p, llama_token_p, c_int,
_lib.llama_tokenize.restype = c_int _lib.llama_tokenize.restype = c_int
# LLAMA_API int llama_tokenize_bpe(
# struct llama_context * ctx,
# const char * text,
# llama_token * tokens,
# int n_max_tokens,
# bool add_bos);
def llama_tokenize_bpe(
ctx: llama_context_p,
text: bytes,
tokens, # type: Array[llama_token]
n_max_tokens: c_int,
add_bos: c_bool,
) -> int:
return _lib.llama_tokenize_bpe(ctx, text, tokens, n_max_tokens, add_bos)
_lib.llama_tokenize_bpe.argtypes = [
llama_context_p,
c_char_p,
llama_token_p,
c_int,
c_bool,
]
_lib.llama_tokenize_bpe.restype = c_int
# LLAMA_API int llama_tokenize_with_model( # LLAMA_API int llama_tokenize_with_model(
# const struct llama_model * model, # const struct llama_model * model,
# const char * text, # const char * text,
@ -993,21 +976,6 @@ _lib.llama_tokenize_with_model.argtypes = [
_lib.llama_tokenize_with_model.restype = c_int _lib.llama_tokenize_with_model.restype = c_int
# LLAMA_API int llama_token_to_str_bpe(
# const struct llama_context * ctx,
# llama_token token,
# char * buf,
# int length);
def llama_token_to_str_bpe(
ctx: llama_context_p, token: llama_token, buf: bytes, length: c_int
) -> int:
return _lib.llama_token_to_str_bpe(ctx, token, buf, length)
_lib.llama_token_to_str_bpe.argtypes = [llama_context_p, llama_token, c_char_p, c_int]
_lib.llama_token_to_str_bpe.restype = c_int
# LLAMA_API int llama_token_to_str_with_model( # LLAMA_API int llama_token_to_str_with_model(
# const struct llama_model * model, # const struct llama_model * model,
# llama_token token, # llama_token token,

2
vendor/llama.cpp vendored

@ -1 +1 @@
Subproject commit f5fe98d11bdf9e7797bcfb05c0c3601ffc4b9d26 Subproject commit 2e5f70a25fc4576e9ed78603fe493eb7702c37a3