본문으로 건너뛰기

LLM

이 문서는 자동 번역되었으며 오류가 포함될 수 있습니다. 변경 사항을 제안하려면 Pull Request를 열어 주저하지 마십시오.

LLM은 텍스트를 읽고 질의에 대한 자연어 응답을 생성하는 역할을 담당합니다. 기본적으로 LlamaIndex.TS는 gpt-3.5-turbo를 사용합니다.

LLM은 명시적으로 ServiceContext 객체에서 설정할 수 있습니다.

import { OpenAI, serviceContextFromDefaults } from "llamaindex";

const openaiLLM = new OpenAI({ model: "gpt-3.5-turbo", temperature: 0 });

const serviceContext = serviceContextFromDefaults({ llm: openaiLLM });

API 참조

"