Aby sprawdzić dostępne modele przez API, należy wysłać zapytanie typu GET na URL https://llmlab.plgrid.pl/api/v1/models. Zapytanie powinno mieć następującą strukturę (należy pamiętać o zastąpieniu pola `<API <API-key>` key> wygenerowanym w usłudze kluczem):
Code Block | ||
---|---|---|
| ||
curl -X 'GET' \ 'https://llmlab.plgrid.pl/api/v1/models' \ -H 'accept: application/json' \ -H 'Authorization: Bearer <API-key>' |
API jest kompatybilne z
[](https://platform.
openai.com/docs/api-reference/chat).Aby wysłać zapytanie do modelu, należy wysłać zapytanie typu POST na adres URL https://llmlab.plgrid.pl/api/v1/chat/completions o następującej strukturze (należy pamiętać o zastąpieniu pola
`<API<API-
key>`key> wygenerowanym w usłudze kluczem oraz pola
`<model<model-
name>`name> nazwą wybranego modelu):
Code Block | ||
---|---|---|
| ||
curl -X 'POST' \
'https://llmlab.plgrid.pl/api/v1/chat/completions' \
-H 'accept: application/json' \
-H 'Authorization: Bearer <API-key>' \
-H 'Content-Type: application/json' \
-d '{
"model": "<nazwa-modelu>",
"messages": [
{
"role": "user",
"content": "Hej, jak się masz?"
}
],
"max_tokens": 100,
"top_p": 1,
"temperature": 1,
"presence_penalty": 0,
"frequency_penalty": 0,
"stream": false
}' |
Model odpowiada w strukturze zgodnej z API OpenAI. Szczegóły pozostałych parametrów zapytania dostępne są w
dokumentacji [](https://platform.openai.
com/docs/api-reference/chat).