Vollständig verwaltet, kein Betriebsaufwand, serverless.
Setup¶
pip install pinecone-client
import pinecone
pc = pinecone.Pinecone(api_key='key')
pc.create_index(
name='docs',
dimension=1536,
metric='cosine',
spec=pinecone.ServerlessSpec(cloud='aws', region='us-east-1')
)
Operationen¶
index = pc.Index('docs')
index.upsert(vectors=[('d1',[0.1,0.2,...],{'text':'PG guide'})])
results = index.query(vector=[0.1,...], top_k=5, include_metadata=True)
- Zero Ops
- Serverless
- Metadata-Filterung
- LangChain-Integration
Praktischer Einsatz mit RAG¶
Pinecone wird am haeufigsten als Vektordatenbank fuer RAG-Pipelines (Retrieval-Augmented Generation) verwendet. Der typische Workflow: Dokumente in Chunks aufteilen, Embeddings mit OpenAI oder einem anderen Modell generieren und mit Metadaten (Quelle, Datum, Kategorie) in Pinecone speichern.
Bei Abfragen kombinieren Sie Vektor-Similarity-Search mit Metadaten-Filterung — zum Beispiel suchen Sie aehnliche Dokumente, aber nur aus den letzten 30 Tagen. Das Serverless-Modell von Pinecone bedeutet, dass Sie nicht fuer ungenutzte Kapazitaet bezahlen und die Skalierung automatisch erfolgt. Die Integration mit LangChain und LlamaIndex vereinfacht das Deployment auf wenige Codezeilen. Fuer sensible Daten erwaegen Sie Pinecone mit dedizierter Umgebung und Verschluesselung.
Pinecone für Produktion¶
Einfachste verwaltete Lösung.