fix: add chat_tokenize endpoint to api docs (#2710)
This commit is contained in:
parent
6e3220529d
commit
08c4184eb2
|
@ -101,6 +101,47 @@
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
|
"/chat_tokenize": {
|
||||||
|
"post": {
|
||||||
|
"tags": [
|
||||||
|
"Text Generation Inference"
|
||||||
|
],
|
||||||
|
"summary": "Template and tokenize ChatRequest",
|
||||||
|
"operationId": "get_chat_tokenize",
|
||||||
|
"requestBody": {
|
||||||
|
"content": {
|
||||||
|
"application/json": {
|
||||||
|
"schema": {
|
||||||
|
"$ref": "#/components/schemas/ChatRequest"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
},
|
||||||
|
"required": true
|
||||||
|
},
|
||||||
|
"responses": {
|
||||||
|
"200": {
|
||||||
|
"description": "Templated and tokenized ChatRequest",
|
||||||
|
"content": {
|
||||||
|
"application/json": {
|
||||||
|
"schema": {
|
||||||
|
"$ref": "#/components/schemas/ChatTokenizeResponse"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
},
|
||||||
|
"404": {
|
||||||
|
"description": "Failed to tokenize ChatRequest",
|
||||||
|
"content": {
|
||||||
|
"application/json": {
|
||||||
|
"schema": {
|
||||||
|
"$ref": "#/components/schemas/ErrorResponse"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
},
|
||||||
"/generate": {
|
"/generate": {
|
||||||
"post": {
|
"post": {
|
||||||
"tags": [
|
"tags": [
|
||||||
|
@ -1092,6 +1133,21 @@
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
},
|
},
|
||||||
|
"ChatTokenizeResponse": {
|
||||||
|
"type": "object",
|
||||||
|
"required": [
|
||||||
|
"tokenize_response",
|
||||||
|
"templated_text"
|
||||||
|
],
|
||||||
|
"properties": {
|
||||||
|
"templated_text": {
|
||||||
|
"type": "string"
|
||||||
|
},
|
||||||
|
"tokenize_response": {
|
||||||
|
"$ref": "#/components/schemas/TokenizeResponse"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
},
|
||||||
"Chunk": {
|
"Chunk": {
|
||||||
"type": "object",
|
"type": "object",
|
||||||
"required": [
|
"required": [
|
||||||
|
|
|
@ -181,12 +181,16 @@ async fn openai_get_model_info(info: Extension<Info>) -> Json<ModelsInfo> {
|
||||||
})
|
})
|
||||||
}
|
}
|
||||||
|
|
||||||
|
/// Template and tokenize ChatRequest
|
||||||
#[utoipa::path(
|
#[utoipa::path(
|
||||||
post,
|
post,
|
||||||
tag = "Text Generation Inference",
|
tag = "Text Generation Inference",
|
||||||
path = "/chat_tokenize",
|
path = "/chat_tokenize",
|
||||||
request_body = ChatRequest,
|
request_body = ChatRequest,
|
||||||
responses((status = 200, description = "Templated and tokenized ChatRequest", body = ChatTokenizeResponse))
|
responses(
|
||||||
|
(status = 200, description = "Templated and tokenized ChatRequest", body = ChatTokenizeResponse),
|
||||||
|
(status = 404, description = "Failed to tokenize ChatRequest", body = ErrorResponse),
|
||||||
|
)
|
||||||
)]
|
)]
|
||||||
async fn get_chat_tokenize(
|
async fn get_chat_tokenize(
|
||||||
Extension(infer): Extension<Infer>,
|
Extension(infer): Extension<Infer>,
|
||||||
|
@ -1501,6 +1505,7 @@ tokenize,
|
||||||
metrics,
|
metrics,
|
||||||
openai_get_model_info,
|
openai_get_model_info,
|
||||||
sagemaker_compatibility,
|
sagemaker_compatibility,
|
||||||
|
get_chat_tokenize,
|
||||||
),
|
),
|
||||||
components(
|
components(
|
||||||
schemas(
|
schemas(
|
||||||
|
@ -1558,6 +1563,7 @@ Function,
|
||||||
FunctionDefinition,
|
FunctionDefinition,
|
||||||
ToolChoice,
|
ToolChoice,
|
||||||
ModelInfo,
|
ModelInfo,
|
||||||
|
ChatTokenizeResponse,
|
||||||
)
|
)
|
||||||
),
|
),
|
||||||
tags(
|
tags(
|
||||||
|
|
Loading…
Reference in New Issue