Dentro dessa pasta, você vai encontrar os seguintes arquivos:
- Análise dos Dados.ipynb: contém toda as etapas de importação dos dados, limpeza, criação das amostras e treinamento do modelo. Tudo bem organizado e explicadinho para qualquer um entender.
- cartola.yml: dependências python para rodar o código desse repositório.
- markov chain lpp: escalador de times com base em previsões feitas usando Markov Chains e programação linear.
Na pasta models, você encontra os modelos de Rede Neural treinados por nós para fazer as predições. Lá, há dois modelos:
- nn.pkl: Esse modelo é atualizado a cada rodada do Brasileirão. Você pode pegar outros modelos pelo histórico do git.
- nn_31.pkl: modelo que foi treinado para a rodada 31 do Brasileirão 2017, onde obtivemos ótimos resultados. A partir dessa rodada, nós comparávamos esse modelo com o nn.pkl.
Você pode ver como esses modelos foram treinados e como utilizá-los no arquivo Análise de Dados.ipynb.
- Vamos quebrar o algoritmo de valorização do cartola em 2018? Deixe sua contribuição na pasta desafio_valorizacao. Você econtrará os dados necessários em ~/caRtola/data/desafio_valorizacao e o script em Python nesta pasta.
Aconselha-se utilizar o Miniconda para instalar todas as dependências python desse repositório.
Com o Miniconda instalado, vá para diretório dessa pasta e digite:
conda env create -f cartola.yml
Para ativar o ambiente (Linux/Mac):
source activate cartola
Para ativar o ambiente (Windows):
activate cartola
Depois, é só rodar o Jupyter Notebook:
jupyter notebook