Ana içeriğe geç

Uçtan Uca Örnekler

Bu belge otomatik olarak çevrilmiştir ve hatalar içerebilir. Değişiklik önermek için bir Pull Request açmaktan çekinmeyin.

Depoda LlamaIndex.TS kullanarak birkaç uçtan uca örnek bulunmaktadır.

Aşağıdaki örnekleri inceleyin veya onları deneyin ve kendi ihtiyaçlarınıza uyacak şekilde özelleştirilebilen interaktif Github Codespace öğreticileriyle dakikalar içinde tamamlayın. Dev-Docs tarafından sağlanan öğreticilere buradan erişebilirsiniz:

Sohbet Motoru

Bir dosyayı okuyun ve LLM ile ilgili sohbet edin.

Vektör İndeksi

Bir vektör indeksi oluşturun ve sorgulayın. Vektör indeksi, en ilgili k en üst düğümü getirmek için gömme kullanacaktır. Varsayılan olarak, k değeri 2'dir.

"

Özet İndeks

Bir liste indeksi oluşturun ve sorgulayın. Bu örnek ayrıca yanıt üretirken kullanılacak en iyi düğümleri seçmek için LLMRetriever'ı da kullanır.

"

Bir İndeks Kaydet / Yükle

Bir vektör indeksi oluşturun ve yükleyin. LlamaIndex.TS'de depolama bağlamı nesnesi oluşturulduğunda diskte kalıcılık otomatik olarak gerçekleşir.

"

Özelleştirilmiş Vektör İndeksi

Bir vektör indeksi oluşturun ve sorgulayın, aynı zamanda LLM, ServiceContext ve similarity_top_k'yi yapılandırın.

"

OpenAI LLM

Bir OpenAI LLM oluşturun ve doğrudan sohbet için kullanın.

"

Llama2 DeuceLLM

Bir Llama-2 LLM oluşturun ve doğrudan sohbet için kullanın.

SubQuestionQueryEngine

Karmaşık sorguları birden fazla alt soruya bölen ve ardından tüm alt soruların cevaplarına göre bir yanıt toplayan SubQuestionQueryEngine kullanır.

"

Düşük Seviye Modüller

Bu örnek, gerçek bir sorgu motoruna ihtiyaç duymadan birkaç düşük seviye bileşen kullanır. Bu bileşenler herhangi bir uygulamada veya ihtiyaçlarınıza uyacak şekilde özelleştirilebilir ve alt sınıflandırılabilir.

"