透過 Ollama 外掛程式,您可以使用 Ollama:
安裝
npm i --save genkitx-ollama
設定
您必須先安裝並執行 ollama 伺服器,才能使用這個外掛程式。你可以追蹤 相關操作說明:https://ollama.com/download
你可以使用 Ollama CLI 下載感興趣的模��。例如:
ollama pull gemma
如要使用這個外掛程式,請在呼叫 configureGenkit()
時指定。
import { ollama } from 'genkitx-ollama';
export default configureGenkit({
plugins: [
ollama({
models: [
{
name: 'gemma',
type: 'generate', // type: 'chat' | 'generate' | undefined
},
],
serverAddress: 'http://127.0.0.1:11434', // default local address
}),
],
});
驗證
如要存取 ollama 的遠端部署���且需要自訂標頭 (靜態、 API 金鑰 (例如驗證標頭) 或動態 (例如驗證標頭),您可以在 ollama 設定外掛程式中指定這些標頭:
靜態標頭:
ollama({
models: [{ name: 'gemma'}],
requestHeaders: {
'api-key': 'API Key goes here'
},
serverAddress: 'https://my-deployment',
}),
您也可以為每個要求動態設定標頭。以下範例說明如何使用 Google Auth 程式庫:
import { GoogleAuth } from 'google-auth-library';
import { ollama, OllamaPluginParams } from 'genkitx-ollama';
import { configureGenkit, isDevEnv } from '@genkit-ai/core';
const ollamaCommon = { models: [{ name: 'gemma:2b' }] };
const ollamaDev = {
...ollamaCommon,
serverAddress: 'http://127.0.0.1:11434',
} as OllamaPluginParams;
const ollamaProd = {
...ollamaCommon,
serverAddress: 'https://my-deployment',
requestHeaders: async (params) => {
const headers = await fetchWithAuthHeader(params.serverAddress);
return { Authorization: headers['Authorization'] };
},
} as OllamaPluginParams;
export default configureGenkit({
plugins: [
ollama(isDevEnv() ? ollamaDev : ollamaProd),
],
});
// Function to lazily load GoogleAuth client
let auth: GoogleAuth;
function getAuthClient() {
if (!auth) {
auth = new GoogleAuth();
}
return auth;
}
// Function to fetch headers, reusing tokens when possible
async function fetchWithAuthHeader(url: string) {
const client = await getIdTokenClient(url);
const headers = await client.getRequestHeaders(url); // Auto-manages token refresh
return headers;
}
async function getIdTokenClient(url: string) {
const auth = getAuthClient();
const client = await auth.getIdTokenClient(url);
return client;
}
用量
這個外掛程式不會以靜態方式匯出模型參照。指定 您使用字串 ID 設定的模型:
const llmResponse = await generate({
model: 'ollama/gemma',
prompt: 'Tell me a joke.',
});