|
PT-BR |
Com um background consolidado em Ciência da Computação, atuo na intersecção entre o desenvolvimento de software e a engenharia de Machine Learning, com foco profundo no ecossistema de Large Language Models (LLMs). Minha especialidade cobre o ciclo completo de IA (end-to-end): desde a exploração de arquiteturas, técnicas de otimização e fine-tuning (PEFT, QLoRA), até a construção das aplicações e interfaces que conectam esses modelos aos usuários finais.
Atualmente, lidero a engenharia e o desenvolvimento da Neve — um modelo/agente conversacional otimizado para raciocínio multi-turn e alta retenção de contexto estendido. Em paralelo, sou contribuidor e pesquisador na organização Fixaware, desenvolvendo infraestrutura e colaborando em projetos open-source voltados para o avanço da Inteligência Artificial.
|
EN-US |
With a solid background in Computer Science, I operate at the intersection of software engineering and Machine Learning, focusing deeply on the Large Language Models (LLMs) ecosystem. My expertise covers the end-to-end AI lifecycle: from exploring architectures, optimization techniques, and fine-tuning (PEFT, QLoRA), to building the applications and interfaces that connect these models to end-users.
Currently, I lead the engineering and development of Neve — a conversational model/agent optimized for multi-turn reasoning and extended context retention. In parallel, I am a researcher and contributor at the Fixaware organization, developing infrastructure and collaborating on open-source projects aimed at advancing Artificial Intelligence.
|
Frontend |
Backend |
DevOps |
|
Design |
Gamedev |
|
| Model Version: 35B-A3B |
Descrição Técnica: Neve é um Large Language Model (LLM) de alta escala, especializado em fluxos de trabalho autonômos (Agentic Workflows) e raciocínio lógico profundo. Através de técnicas avançadas de fine-tuning como PEFT e QLoRA, o modelo foi otimizado para manter coerência em janelas de contexto estendidas e precisão em geração de código complexo. |
Architecture: MTP | Context: 256K | Status: Post-Trained
Resultados comparativos evidenciando a evolução do modelo Neve em relação aos baselines de mercado.
| Benchmark (Evals) | Qwen3.5 27B | Gemma4 31B | Qwen3.5 35B | Neve Strata 35B (Meu Fine-Tune) |
|---|---|---|---|---|
| Coding & General Agents (Repositórios e Ferramentas) | ||||
| SWE-bench Verified | 75.0 | 52.0 | 70.0 | 73.4 |
| Terminal-Bench 2.0 | 41.6 | 42.9 | 40.5 | 51.5 |
| QwenWebBench | 1068 | 1197 | 978 | 1397 |
| MCP-Atlas | 68.4 | 57.2 | 62.4 | 62.8 |
| STEM & Deep Reasoning (Lógica e Matemática) | ||||
| LiveCodeBench v6 | 80.7 | 80.0 | 74.6 | 80.4 |
| AIME 26 | 92.6 | 89.2 | 91.0 | 92.7 |
| GPQA | 85.5 | 84.3 | 84.2 | 86.0 |
| Vision & Spatial Intelligence (OCR e Documentos) | ||||
| MMMU | 82.3 | 80.4 | 81.4 | 81.7 |
| RealWorldQA | 83.7 | 72.3 | 84.1 | 85.3 |
| OmniDocBench1.5 | 88.9 | 80.1 | 89.3 | 89.9 |
Metodologia: Avaliado via scaffold de agente interno; temp=1.0, top_p=0.95. Para detalhes de arquitetura e logs de treinamento, consulte os repositórios correspondentes.
| AI Orchestration & Deployment Platform |
Core Capacity: Plataforma open-source self-hosted e extensível para orquestração de Inteligência Artificial. Projetada para operar em ambientes offline e cloud-native, integra motores de inferência locais (llama.cpp), oferecendo infraestrutura completa para RAG nativo, chamadas de função (Function Calling), multimodalidade e gestão de acessos em nível Enterprise. |
Deploy: Docker & K8s | Auth: RBAC & SCIM 2.0 | Scale: Redis & WebSockets | Metrics: OpenTelemetry
Visão geral dos módulos de integração, engenharia de dados e segurança da plataforma.
| Domínio da Arquitetura | Especificações e Tecnologias Suportadas |
|---|---|
| Inteligência & Orquestração de Modelos | |
| Multi-Engine | Integração fluida entre modelos locais (llama.cpp). Suporte nativo a inferência simultânea (Many Models), permitindo execução paralela para otimização de respostas. |
| Extensibilidade & Pipelines | Pipelines Plugin Framework para injeção de lógica customizada (rate limiting, filtros, Langfuse). Suporte a Native Python Function Calling (BYOF), permitindo execução de código e ferramentas diretamente pelo LLM. |
| Processamento Multimodal | Integração de geração e edição de imagens (ComfyUI, AUTOMATIC1111). |
| Engenharia de RAG & Armazenamento | |
| Vector & Knowledge Bases | Motor RAG nativo com suporte a 9+ Vector Databases (ChromaDB, PGVector, Qdrant, Milvus, etc.). Extração de conteúdo via Tika, Docling, Mistral OCR e Document Intelligence. |
| Retrieval & Cloud Storage | Injeção de contexto em tempo real via 15+ provedores de Web Search (SearXNG, Tavily, Perplexity). Integração Cloud-Native para importação direta via Google Drive, OneDrive e SharePoint. |
| Persistência de Artefatos | Armazenamento em SQLite (com criptografia) ou PostgreSQL, com suporte a backends de storage em nuvem (S3, GCS, Azure Blob). Key-value store interno para retenção de artefatos e histórico entre sessões. |
| Infraestrutura Enterprise & Segurança | |
| Identidade & Controle de Acesso | Implementação estrita de RBAC com permissões granulares. Autenticação Enterprise via LDAP/AD, SSO (OAuth) e provisionamento automatizado de ciclo de vida de usuários via protocolo SCIM 2.0 (Okta, Azure AD). |
| Escalabilidade Horizontal | Sessões gerenciadas via Redis e suporte a WebSockets, viabilizando deployments multi-node e multi-worker operando atrás de load balancers. |
| Observabilidade (APM) | Suporte built-in a OpenTelemetry para exportação de traces, métricas e logs, garantindo monitoramento profundo integrado a stacks de observabilidade de produção. |
![]() |
![]() Fixaware |














