Este proyecto implementa un servicio capaz de generar respuestas a las preguntas del usuario mediante el uso de un modelo de lenguaje de gran tamaño o LLM. Actualmente, el modelo configurado es llama3-8b-8192, pero puede modificarse fácilmente desde views.py
si se desea probar otros modelos disponibles en Groq.
- (Recomendable) Generar un ecosistema de ejecución con Conda,
conda create -n nombre_del_entorno python=3.9
yconda activate nombre_del_entorno
- Registrarse en Groq para obtener una API key
- Crear un fichero
.env
en el directorio raíz que contengaGROQ_API_KEY="la_api_key_conseguida"
- Clonar el repositorio en nuestra máquina e instalar las dependencias con
pip install django python-dotenv groq
- Desde la API en
/llm_api
, lanzarpython manage.py runserver
para ejecutar el servidor Django - (Opcional) Probar el endpoint en
http://127.0.0.1:8000/groq/api/groq/
Realizamos una request POST al endpoint usando RapidAPI:
Comprobamos que la información se almacena correctamente en la base de datos: