Suaviza probabilidades por prior Beta(a,b) e amostra 15 números proporcional ao valor posterior médio.
Como funciona
Para cada número i, calcula a frequência nos últimos W concursos (sucessos) em M tentativas. Usa posterior Beta(a+sucessos, b+M−sucessos) e o valor esperado (a+sucessos)/(a+b+M) como probabilidade, amostrando 15 sem reposição por esses pesos.
Exemplos de configurações
Estes presets preenchem os campos acima. Ajuste conforme necessário.
Frequência Ponderada
Amostra 15 números com probabilidade proporcional à frequência recente elevada a um expoente.
Como funciona
Calcula a frequência dos últimos W concursos. Cada número i recebe peso (freq[i]+ε)α. Os 15 números são amostrados sem reposição, proporcional aos pesos.
Exemplos de configurações
Estes presets preenchem os campos acima. Ajuste conforme necessário.
Padrões Preditivos
Monta o jogo escolhendo uma quantidade dos mais sorteados e dos menos sorteados na janela W; completa o restante priorizando frequências.
Como funciona
Calcula a frequência dos últimos W concursos. Seleciona exatamente kTop números do topo (maiores frequências) e kBottom do fundo (menores frequências). Os demais até 15 são escolhidos entre os restantes, ponderados pela frequência.
Regressão Logística
Saiba mais sobre os parâmetros
Janela W: concursos considerados na frequência. Maior W = mais estável, porém mais lento.
Recentes k: concursos mais recentes que influenciam uma feature separada. Aumenta sensibilidade a tendências.
Iterações: passos do treinamento (gradiente). Mais iterações podem melhorar o ajuste, mas aumentam o tempo.
LR (learning rate): taxa de aprendizado. Intervalo sugerido: 0,01–0,10. Muito alto pode divergir; muito baixo fica lento.
L2: regularização para evitar overfitting. Use valores pequenos (ex.: 0,0001–0,001).
Dica: em dispositivos fracos, reduza W e Iterações. Quando há muitos dados, a página usa automaticamente uma amostra recente e pode reduzir as iterações para manter a interface responsiva.
Exemplos de configurações
Estes presets preenchem os campos acima. Ajuste conforme necessário.
Naive Bayes (Gaussiano)
Treina 25 classificadores Gaussian Naive Bayes usando features de frequência em janela W e k recentes; escolhe os 15 com maior posterior.
Como funciona
Para cada número i, cria amostras ao longo do tempo com features x=(freqW, recentk) e rótulo y∈{0,1}. Estima médias/variâncias por classe e prior P(y). Para o estado atual (D−1), calcula P(y=1|x) por GNB e escolhe os 15 maiores; para N jogos, amostra sem reposição usando pesos proporcionais ao posterior.
Rede Neural (MLP)
Treina 25 MLPs binários no navegador com features simples (freqW, recentK). Seleciona os 15 com maior probabilidade prevista.
Como funciona
Para cada número i, cria amostras com x=[1,freq_W, recent_k] e rótulo y∈{0,1}. Treina um MLP de 1 camada oculta (H neurônios, ativação selecionada) com saída sigmoide. Para o estado atual, calcula P(y=1|x) e pega os 15 maiores. Em N jogos, amostra sem reposição ponderando por P.
Máx. acertos históricos
Gera um jogo de 15 números tal que, ao comparar com todo o histórico, o número máximo de acertos não ultrapasse o limite escolhido.
Como funciona
Usa todo o histórico disponível. Monta inicialmente um conjunto com números menos frequentes e aplica ajustes heurísticos para reduzir a sobreposição máxima com qualquer sorteio passado até ficar ≤ ao limite. Em casos extremos, pode não haver solução para limites muito baixos.