Ga naar hoofdinhoud

Voorbeelden van begin tot eind

Deze documentatie is automatisch vertaald en kan fouten bevatten. Aarzel niet om een Pull Request te openen om wijzigingen voor te stellen.

We hebben verschillende voorbeelden van begin tot eind opgenomen met behulp van LlamaIndex.TS in de repository.

Bekijk hieronder de voorbeelden of probeer ze uit en voltooi ze in enkele minuten met interactieve Github Codespace-tutorials die worden aangeboden door Dev-Docs hier:

Chat Engine

Lees een bestand en praat erover met de LLM.

Vector Index

Maak een vectorindex en vraag deze op. De vectorindex zal embeddings gebruiken om de meest relevante knooppunten op te halen. Standaard is de top k 2.

Samenvattingsindex

Maak een lijstindex en vraag deze op. Dit voorbeeld maakt ook gebruik van de LLMRetriever, die de LLM zal gebruiken om de beste knooppunten te selecteren bij het genereren van een antwoord.

Een index opslaan / laden

Maak een vectorindex aan en laad deze. Het opslaan op schijf in LlamaIndex.TS gebeurt automatisch zodra er een opslagcontextobject is gemaakt.

Aangepaste Vector Index

Maak een vectorindex en doorzoek deze, terwijl je ook de LLM, de ServiceContext en de similarity_top_k configureert.

OpenAI LLM

Maak een OpenAI LLM en gebruik deze direct voor chat.

Llama2 DeuceLLM

Maak een Llama-2 LLM aan en gebruik deze direct voor chat.

"

SubQuestionQueryEngine

Maakt gebruik van de SubQuestionQueryEngine, die complexe queries opsplitst in meerdere vragen en vervolgens een antwoord verzamelt op basis van de antwoorden op alle subvragen.

"

Modules op laag niveau

Dit voorbeeld maakt gebruik van verschillende modules op laag niveau, waardoor de noodzaak voor een daadwerkelijke query-engine wordt verwijderd. Deze modules kunnen overal worden gebruikt, in elke toepassing, of aangepast en afgeleid om aan uw eigen behoeften te voldoen.