Ollama + SingleStore – LangChain = :-(

In un articolo precedente, abbiamo utilizzato Ollama insieme a LangChain e SingleStore. LangChain forniva una soluzione efficiente e compatta per l’integrazione di Ollama con SingleStore. Tuttavia, cosa succederebbe se dovessimo rimuovere LangChain? In questo articolo, mostreremo un esempio di come usare Ollama con SingleStore senza dipendere da LangChain. Vedremo che, sebbene possiamo raggiungere gli stessi risultati descritti nell’articolo precedente, il numero di codice aumenta, costringendoci a gestire più del tubo che normalmente LangChain gestisce.

Il file notebook usato in questo articolo è disponibile su GitHub.

Introduzione

Dall’articolo precedente, seguiremo gli stessi passaggi per impostare il nostro ambiente di test come descritti in queste sezioni:

  • Introduzione
    • Utilizza una Macchina Virtuale o venv.
  • Crea un account SingleStoreDB Cloud
    • Usa Ollama Demo Group come Nome del Gruppo di Workspace e ollama-demo come Nome del Workspace. Prendi nota del password e del nome host. Permetti temporaneamente l’accesso da qualsiasi punto nel configurare il firewall sotto Ollama Demo Group > Firewall.
  • Crea un Database 
  • CREATE DATABASE IF NOT EXISTS ollama_demo;
  • Installa Jupyter
    • pip install notebook
  • Installa Ollama
    • curl -fsSL https://ollama.com/install.sh | sh
  • Variabile d’ambiente
    • export SINGLESTOREDB_URL="admin:<password>@<host>:3306/ollama_demo"
      Sostituisci <password> e <host> con i valori per il tuo ambiente.
  • Lancia Jupyter
    • jupyter notebook

Riempi il Notebook

Prima, alcuni pacchetti:

Shell

 

Poi, importeremo alcune librerie:

Python

 

Creeremo embeddings utilizzando all-minilm (45 MB al momento della scrittura):

Python

 

Esempio di output:

Plain Text

 

Per il nostro LLM utilizzeremo llama2 (3.8 GB al momento dell’iscrizione):

Python

 

Esempio di output:

Plain Text

 

Successivamente, utilizzeremo il testo di esempio dal sito web di Ollama:

Python

 

Imposteremo le emozioni come all-minilm e iterare attraverso ogni documento per costruire il contenuto per un DataFrame di Pandas. Inoltre, convertiremo le emozioni in un formato a 32 bit, poiché questo è il default di SingleStore per il tipo di dato VECTOR. Infine, determinaremo le dimensioni dell’emozione per il primo documento nel DataFrame di Pandas.

Successivamente, creerà una connessione alla sua istanza di SingleStore:

Python

 

Ora creerà una tabella con la colonna vector utilizzando le dimensioni precedentemente determinate:

Python

 

Ora scriverà il DataFrame di Pandas alla tabella:

Python

 

Esempio di output:

Plain Text

 

Ora creerà un indice per corrispondere a quello creato nell’articolo precedente:

Python

 

Ora porterà una domanda, come segue:

Python

 

Converterà il prompt in emozioni, assicurarsi che le emozioni siano convertite in un formato a 32 bit, e poi eseguirà la query SQL che utilizza la notazione inverso <-> per la distanza euclidea.

Esempio di output:

Plain Text

 

Successivamente, utilizzerà l’LLM, come segue:

Python

 

Esempio di output:

Plain Text

 

Riepilogo

In questo articolo, abbiamo ripetuto i passaggi seguiti negli articoli precedenti e ottenuto risultati simili. Tuttavia, abbiamo dovuto scrivere una serie di istruzioni SQL e gestire diversi passaggi che LangChain avrebbe ricoperto per noi. Inoltre, potrebbe essere richiesto più tempo e costo per il mantenimento del baseline del codice a lungo termine rispetto alla soluzione LangChain.

L’utilizzo di LangChain invece di scrivere codice personalizzato per l’accesso al database fornisce diversi vantaggi, come l’efficienza, la scalabilità e la affidabilità.

LangChain offre una libreria di moduli predefiniti per l’interazione con il database, riducendo il tempo e il lavoro di sviluppo. I sviluppatori possono usare questi moduli per implementare velocemente varie operazioni sul database senza ricominciare da zero.

LangChain astratta molte delle complessità coinvolte nella gestione del database, permettendo ai sviluppatori di concentrarsi su attività ad alto livello invece di dettagli di implementazione a basso livello. Questo aumenta la produttività e la velocità di immissione del mercato per le applicazioni basate su database.

LangChain ha una comunità di sviluppatori ampia, attiva e in crescita, è disponibile su GitHub e fornisce documentazione estesa e esempi.

In sintesi, LangChain offre ai sviluppatori una piattaforma potente, efficiente e affidabile per la costruzione di applicazioni basate su database, permettendogli di focalizzarsi su problemi aziendali utilizzando astrazioni a alto livello invece di reinventare la ruota con codice personalizzato. Confrontando l’esempio di questo articolo con l’esempio utilizzato negli articoli precedenti, si può notare i benefici.

Source:
https://dzone.com/articles/ollama-plus-singlestore-minus-langchain