llama.cpp/llama_cpp
Andrei 3bca7708fb
Configurable Chat Formats (#711)
* Add configurable default chat completion format.

* Remove chat_template file to avoid circular import

* Update llama_types

* Add chat format
2023-09-29 19:52:04 -04:00
..
server Adds openai-processing-ms response header (#748) 2023-09-25 13:55:58 -04:00
__init__.py Bump version 2023-09-25 14:38:38 -04:00
llama.py Configurable Chat Formats (#711) 2023-09-29 19:52:04 -04:00
llama_chat_format.py Configurable Chat Formats (#711) 2023-09-29 19:52:04 -04:00
llama_cpp.py Update llama.cpp 2023-09-28 22:42:03 -04:00
llama_grammar.py Fix typos in llama_grammar 2023-08-17 21:00:44 +09:00
llama_types.py Update llama_types and names to match openai api 2023-09-20 15:38:26 -04:00
py.typed Add py.typed 2023-08-11 09:58:48 +02:00
utils.py Suppress llama.cpp output when loading model. 2023-07-28 14:45:18 -04:00