Skip to content
View Etamus's full-sized avatar
🎯
Focusing
🎯
Focusing

Organizations

@EpicGames @Py-Contributors @pysnippet @Fixedge @Fixaware @NeveLLM

Block or report Etamus

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Maximum 250 characters. Please don’t include any personal information such as legal names or email addresses. Markdown is supported. This note will only be visible to you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
Etamus/README.md

bannerteste

sobre



PT-BR PT-BR

Com um background consolidado em Ciência da Computação, atuo na intersecção entre o desenvolvimento de software e a engenharia de Machine Learning, com foco profundo no ecossistema de Large Language Models (LLMs). Minha especialidade cobre o ciclo completo de IA (end-to-end): desde a exploração de arquiteturas, técnicas de otimização e fine-tuning (PEFT, QLoRA), até a construção das aplicações e interfaces que conectam esses modelos aos usuários finais.

Atualmente, lidero a engenharia e o desenvolvimento da Neve — um modelo/agente conversacional otimizado para raciocínio multi-turn e alta retenção de contexto estendido. Em paralelo, sou contribuidor e pesquisador na organização Fixaware, desenvolvendo infraestrutura e colaborando em projetos open-source voltados para o avanço da Inteligência Artificial.


EN-US

With a solid background in Computer Science, I operate at the intersection of software engineering and Machine Learning, focusing deeply on the Large Language Models (LLMs) ecosystem. My expertise covers the end-to-end AI lifecycle: from exploring architectures, optimization techniques, and fine-tuning (PEFT, QLoRA), to building the applications and interfaces that connect these models to end-users.

Currently, I lead the engineering and development of Neve — a conversational model/agent optimized for multi-turn reasoning and extended context retention. In parallel, I am a researcher and contributor at the Fixaware organization, developing infrastructure and collaborating on open-source projects aimed at advancing Artificial Intelligence.




teste



Frontend

Backend

DevOps

Design

Gamedev




projetoemand




Neve

Model Version: 35B-A3B
Descrição Técnica:
Neve é um Large Language Model (LLM) de alta escala, especializado em fluxos de trabalho autonômos (Agentic Workflows) e raciocínio lógico profundo. Através de técnicas avançadas de fine-tuning como PEFT e QLoRA, o modelo foi otimizado para manter coerência em janelas de contexto estendidas e precisão em geração de código complexo.

Architecture: MTP    |    Context: 256K    |    Status: Post-Trained



Benchmarks e Avaliação de Desempenho

Resultados comparativos evidenciando a evolução do modelo Neve em relação aos baselines de mercado.


Benchmark (Evals) Qwen3.5 27B Gemma4 31B Qwen3.5 35B Neve Strata 35B
(Meu Fine-Tune)
Coding & General Agents (Repositórios e Ferramentas)
SWE-bench Verified 75.0 52.0 70.0 73.4
Terminal-Bench 2.0 41.6 42.9 40.5 51.5
QwenWebBench 1068 1197 978 1397
MCP-Atlas 68.4 57.2 62.4 62.8
STEM & Deep Reasoning (Lógica e Matemática)
LiveCodeBench v6 80.7 80.0 74.6 80.4
AIME 26 92.6 89.2 91.0 92.7
GPQA 85.5 84.3 84.2 86.0
Vision & Spatial Intelligence (OCR e Documentos)
MMMU 82.3 80.4 81.4 81.7
RealWorldQA 83.7 72.3 84.1 85.3
OmniDocBench1.5 88.9 80.1 89.3 89.9

Metodologia: Avaliado via scaffold de agente interno; temp=1.0, top_p=0.95. Para detalhes de arquitetura e logs de treinamento, consulte os repositórios correspondentes.





Neve UI

AI Orchestration & Deployment Platform
Core Capacity:
Plataforma open-source self-hosted e extensível para orquestração de Inteligência Artificial. Projetada para operar em ambientes offline e cloud-native, integra motores de inferência locais (llama.cpp), oferecendo infraestrutura completa para RAG nativo, chamadas de função (Function Calling), multimodalidade e gestão de acessos em nível Enterprise.

Deploy: Docker & K8s    |    Auth: RBAC & SCIM 2.0    |    Scale: Redis & WebSockets    |    Metrics: OpenTelemetry



Arquitetura de Sistema e Capacidades Técnicas

Visão geral dos módulos de integração, engenharia de dados e segurança da plataforma.


Domínio da Arquitetura Especificações e Tecnologias Suportadas
Inteligência & Orquestração de Modelos
Multi-Engine Integração fluida entre modelos locais (llama.cpp). Suporte nativo a inferência simultânea (Many Models), permitindo execução paralela para otimização de respostas.
Extensibilidade & Pipelines Pipelines Plugin Framework para injeção de lógica customizada (rate limiting, filtros, Langfuse). Suporte a Native Python Function Calling (BYOF), permitindo execução de código e ferramentas diretamente pelo LLM.
Processamento Multimodal Integração de geração e edição de imagens (ComfyUI, AUTOMATIC1111).
Engenharia de RAG & Armazenamento
Vector & Knowledge Bases Motor RAG nativo com suporte a 9+ Vector Databases (ChromaDB, PGVector, Qdrant, Milvus, etc.). Extração de conteúdo via Tika, Docling, Mistral OCR e Document Intelligence.
Retrieval & Cloud Storage Injeção de contexto em tempo real via 15+ provedores de Web Search (SearXNG, Tavily, Perplexity). Integração Cloud-Native para importação direta via Google Drive, OneDrive e SharePoint.
Persistência de Artefatos Armazenamento em SQLite (com criptografia) ou PostgreSQL, com suporte a backends de storage em nuvem (S3, GCS, Azure Blob). Key-value store interno para retenção de artefatos e histórico entre sessões.
Infraestrutura Enterprise & Segurança
Identidade & Controle de Acesso Implementação estrita de RBAC com permissões granulares. Autenticação Enterprise via LDAP/AD, SSO (OAuth) e provisionamento automatizado de ciclo de vida de usuários via protocolo SCIM 2.0 (Okta, Azure AD).
Escalabilidade Horizontal Sessões gerenciadas via Redis e suporte a WebSockets, viabilizando deployments multi-node e multi-worker operando atrás de load balancers.
Observabilidade (APM) Suporte built-in a OpenTelemetry para exportação de traces, métricas e logs, garantindo monitoramento profundo integrado a stacks de observabilidade de produção.


estatisticas



GitHub Streak




contato



Linkedin
LinkedIn
Fixedge
Fixaware




github contribution snake animation

Pinned Loading

  1. Hub_Dynamics Hub_Dynamics Public

    Hub de integração corporativa, atuando como orquestrador central para automações complexas (SAP, BW HANA via RPA) e Business Intelligence. A arquitetura full-stack incorpora RBAC granular, schedule…

    JavaScript 6 1

  2. Lou_LLM Lou_LLM Public

    Agente conversacional full-stack operando localmente via llama-cpp-python (GGUF/CUDA). A arquitetura combina um backend HTTP modular em Python com uma interface web, orquestrando retenção profunda …

    Python 1

  3. LouAI LouAI Public

    Lou é um agente conversacional stateful desenvolvido em Python, focado em alta retenção de contexto. Opera com chamadas assíncronas e combina injeção dinâmica de personalidade com pipelines em back…

    Python 1

  4. ALVR ALVR Public

    Forked from alvr-org/ALVR

    Stream VR games from your PC to your headset via Wi-Fi.

    Rust 1

  5. Nevebot Nevebot Public

    Nevebot é um agente multimodal para Discord operando self-hosted. O sistema integra inferência local de LLMs (GGUF) a pipelines de processamento de áudio bidirecional acelerados por GPU (Faster-Whi…

    Python 1

  6. React-Hub React-Hub Public

    Repositório destinado aos testes e validação do novo frontend do Hub Dynamics

    TypeScript