V
Venix AI
Llama 3.1 8B · self-hosted
API Token
Entrar
V
Venix AI
llama3.1:8b-instruct-q4_K_M
Limpar
Sair
V
Como posso ajudar?
Llama 3.1 8B · rodando em CPU · ~8 tokens/s
📚 Explicar conceito
O que é um LLM?
✨ Criatividade
Escrever um haiku
💡 Brainstorm
Ideias de startup
💻 Código
Função Python
Enviar