Skip to content

asm-dev/django-llm-api

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

11 Commits
 
 
 
 
 
 

Repository files navigation

Integración de un LLM con Groq y Django

Este proyecto implementa un servicio capaz de generar respuestas a las preguntas del usuario mediante el uso de un modelo de lenguaje de gran tamaño o LLM. Actualmente, el modelo configurado es llama3-8b-8192, pero puede modificarse fácilmente desde views.py si se desea probar otros modelos disponibles en Groq.

 

Ejecución

  1. (Recomendable) Generar un ecosistema de ejecución con Conda, conda create -n nombre_del_entorno python=3.9 y conda activate nombre_del_entorno
  2. Registrarse en Groq para obtener una API key
  3. Crear un fichero .env en el directorio raíz que contenga GROQ_API_KEY="la_api_key_conseguida"
  4. Clonar el repositorio en nuestra máquina e instalar las dependencias con pip install django python-dotenv groq
  5. Desde la API en /llm_api, lanzar python manage.py runserver para ejecutar el servidor Django
  6. (Opcional) Probar el endpoint en http://127.0.0.1:8000/groq/api/groq/

 

Pruebas de uso

Realizamos una request POST al endpoint usando RapidAPI:

image

Comprobamos que la información se almacena correctamente en la base de datos:

image

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages