V

Venix AI

Llama 3.1 8B · self-hosted
ai.venix.app · Ollama + Nginx + Cloudflare
V
Venix AI
llama3.1:8b-instruct-q4_K_M
V

Como posso ajudar?

Llama 3.1 8B · rodando em CPU · ~8 tokens/s

📚 Explicar conceitoO que é um LLM?
✨ CriatividadeEscrever um haiku
💡 BrainstormIdeias de startup
💻 CódigoFunção Python