HuggingFaceFW/fineweb-edu
Viewer • Updated • 3.5B • 572k • 1.07k
O MicroLM-1M é um modelo de IA treinado do zero com 1 milhão de parâmetros e 500 milhões de tokens de dados de treinamento.
Este modelo foi treinado com dados provenientes de dois conjuntos de dados públicos: Wikipedia e FineWeb-Edu. A Wikipedia é licenciada sob CC BY-SA 3.0, e o FineWeb-Edu sob a licença ODC-BY 1.0. Este modelo não armazena nem reproduz os dados de treinamento de forma literal. Em vez disso, ele aprende representações estatísticas a partir dos padrões presentes nos dados.